Чем опасен искусственный интеллект? | Охотники за будущим

แชร์
ฝัง
  • เผยแพร่เมื่อ 25 ก.ย. 2017
  • Это главная страшилка о мире технологий - слишком умные машины, к тому же способные самостоятельно мыслить. Еще вчера роботы и другие устройства служили нам, а завтра они нами правят. Сколько в этой идеи от бреда, а о чем надо всерьез подумать уже сегодня? Об этом смотрите новый выпуск формата SciOne «Охотники за будущим».
    Подписаться на канал: goo.gl/evGW5k
    Сайт: sci-one.tv
    Социальные сети:
    - FB: / sci.one.tv
    - VK: sci_one
    - Telegram: t.me/sci_one_tv
    - Instagram: / sci_one_tv
    - Twitter: / sci_one_tv
    - GT: geektimes.ru/company/scione/
    - OK: ok.ru/group/57392217129003
    ===================================
    Поддержать нас:
    - / scione
    - you.support/scione
    - www.donationalerts.ru/r/scione
    ===================================
    Помогите сделать субтитры и перевод видео: goo.gl/BRrX4J
    Полезные ссылки:
    История про восстание чат-ботов и разоблачение сенсации: www.bbc.com/news/technology-40...
    Учебник по ИИ Стюарта Рассела: goo.gl/gAhqKB
    Рассказ Айзека Азимова «Хоровод» (1942 г.), в котором писатель впервые сформулировал гипотетические законы робототехники: fantlab.ru/work893
    Проект MIT по обучению ИИ моральному выбору: moralmachine.mit.edu/hl/ru
    Заочный спор Маска и Цукерберга: roem.ru/25-07-2017/255649/mas...
    Музыка из выпуска:
    1) Back to the Future - Main Theme (cover)
    2) REKchampa - All I Have
    3) Eternal Sensei - Derealization
    4) Jens Kilstofte - Highrider
    5) Highway Superstar - Easy Ride
  • วิทยาศาสตร์และเทคโนโลยี

ความคิดเห็น • 678

  • @SciOne
    @SciOne  6 ปีที่แล้ว +53

    Оглавление
    01:01 - чего мы так боимся в ИИ
    02:38 - История будущего: инцидент "Икс" с ИИ в Facebook
    05:00 - Особое мнение: неочевидная реальная опасность ИИ
    08:13 - История будущего: моральные проблемы и 3 закона роботехники
    10:51 - Особое мнение: дебаты между Маском и Цукербергом об опасностях ИИ
    Поддержать нас:
    - www.patreon.com/SciOne
    - you.support/scione
    - www.donationalerts.ru/r/scione
    Наши соц. сети:
    - FB: facebook.com/sci.one.tv
    - Instagram: instagram.com/sci_one_tv
    - Telegram: t.me/sci_one_tv
    - VK: vk.com/sci_one
    - Twitter: twitter.com/sci_one_tv
    - GT: geektimes.ru/company/scione/
    - OK: ok.ru/group/57392217129003

    • @MrKim-pt2vm
      @MrKim-pt2vm 6 ปีที่แล้ว

      SciOne посмотрите фильм 2008 года на крючке.

    • @alexander_vlasov97
      @alexander_vlasov97 6 ปีที่แล้ว +1

      Меня больше волнует то, что тому экскаватору больше не понадобится экскаваторщик. Меня волнует то, что набор микросхем в будущем может отобрать у меня работу. Ту работу, о которой я мечтал, какой грезил. Только лишь потому, что он будет делать ее лучше или дешевле, чем я. И я не хочу, чтобы человечество становилось безмозглым скотом, в котором не будет места творчеству, искусству и интеллекту. Ведь его заменят машины. Не хочу, чтобы то, чему я учился всю жизнь, стало доступно какому-нибудь богачу с покупкой флешки в мозг. Может для какого-нибудь лентяя это и благо, что ему не придется напрягаться, кроме как чтобы посрать, но я в этом вижу тюрьму. Невозможность заниматься и зарабатывать любимым делом, потому что машина делает это лучше меня.

    • @veronanskelann2186
      @veronanskelann2186 6 ปีที่แล้ว

      Научите ИИ не только учиться но и задавать вопросы и искать на них ответы и тогда вряд ли эта штука сможет быть инструмент в руках человека!!!! А так спасибо за видео, все таки я солидарен с Илоном Маском)))

    • @quarann551
      @quarann551 6 ปีที่แล้ว +5

      Вы пропустили или может специально оставили высказывания Илона не полностью, как он говорил, искусственный интеллект который будет заниматься наукой вызовет переворот в технологиях и та страна или группа лиц, которая сможет первой достичь этого результата будет править миром. И за обладание такими технологиями и может начаться третья мировая война. Так что регулировать разработки, делать их общественно открытыми необходимо.

    • @melihovt
      @melihovt 6 ปีที่แล้ว +1

      Прошел тест moralmachine.mit.edu/hl/ru. Угробил всех людей кто не в машине. Если машина пустая всех кто шел на красный. В остальных случаях угробил собак. Собственно, вопросов морали там чего-то не увидел. Похоже я аморальный

  • @mayesip
    @mayesip 6 ปีที่แล้ว +180

    Правильно! Не надо боятся машин, надо боятся людей. Особенно страшен несанкционированный доступ к системам от которых зависят жизни людей.

    • @user-hj3gn9oc8c
      @user-hj3gn9oc8c 5 ปีที่แล้ว +1

      Мне моя бабушка когда то в шестидесятые сказала: не надо боятся джинов - человек опаснее 🤣😅.

    • @user-zg8cu5vn2w
      @user-zg8cu5vn2w 3 ปีที่แล้ว +1

      Ни кто машин и не боится. Боятся искусственный интеллект созданный на базе машины. И не надо утверждать что это не опасно. От куда вам знать, если настоящий ИИ, ещё не создан. То что сейчас пишут и называют ИИ, это не более чем автоматизация (не интеллект обладающий собственным самосознанием). В этом смысле, да, бояться нечего. Автоматизация зависит на 100% от человека. И если Тесла сбивает пешехода, виноват пешеход, программист, кто угодно, но не железяка. У неё нет разума.

    • @elizaveta6853
      @elizaveta6853 2 ปีที่แล้ว

      В потребительском обществе супер искусственный интеллект будет использоваться не во благо обычным людям

    • @No.Inkognito
      @No.Inkognito 2 ปีที่แล้ว +2

      Что людей надо боятся, это было понятно ещё 100 тыс. лет назад.
      Вопрос в том, как определить критерий, когда нам можно давать следующий, более мощный и более опасный инструмент для использования. Это, как про историю обезьяны с гранатой.

    • @No.Inkognito
      @No.Inkognito 2 ปีที่แล้ว +1

      @@user-zg8cu5vn2w опасность ИИ , не в том что он умный, а в том что наоборот, он ещё долго будет очень "тупым" и плохоконтролируемым. И вот именно в этом качестве, с предоставленными ему большими ресурсами и возможностями, он может натворить много дел.

  • @apollinari_9445
    @apollinari_9445 6 ปีที่แล้ว +272

    зато могут восстать люди, которые будут думать, что мы эксплуатируем ИИ

    • @user-tr7tf1ps2y
      @user-tr7tf1ps2y 6 ปีที่แล้ว +7

      Это уже происходит.

    • @TheAbzoren
      @TheAbzoren 6 ปีที่แล้ว +22

      Погибший Что? Какое-то общественное движение по защите прав тостеров?

    • @heavenspear
      @heavenspear 6 ปีที่แล้ว +25

      Khirsen а ты думаешь мало идиотов?

    • @porkywildboar2045
      @porkywildboar2045 6 ปีที่แล้ว +18

      Например, как феминистки, которые защищают права несуществующих гендеров.

    • @ShadeAKAhayate
      @ShadeAKAhayate 6 ปีที่แล้ว

      Ну так на них и будут смотреть соответственно, да.

  • @liloviy_yoj
    @liloviy_yoj 6 ปีที่แล้ว +76

    Спасибо за интересный ролик с пищей для размышления.

  • @DmitroVialkov
    @DmitroVialkov 6 ปีที่แล้ว +103

    09:20 В корне неправильная задача с неправильной формулировкой.... Правильная была бы такой в этой ситуации.
    С какой скоростью в данный момент ехать, чтобы при возникновении непредвиденного препятствия на расстоянии максимального обнаружения успеть предотвратить столкновение (остановиться) с учетом текущих погодных условий, дорожной ситуации и состояния автомобиля.
    И сбивать не придется ни девочку, ни бабушку, ни дорожных работников и самому влетать в столб не придется. Ошибка, как всегда, в человеческом факторе, который не может составить правильный алгоритм.

    • @SciOne
      @SciOne  6 ปีที่แล้ว +13

      Тогда надо установить порог в 20-30 км/ч. А на досуге попробуйте порешать эту задачу, заодно исследователям поможете. Мы говорили об этом проекте в выпуске. Очень увлекательно: moralmachine.mit.edu/hl/ru

    • @DmitroVialkov
      @DmitroVialkov 6 ปีที่แล้ว +45

      Зачем порог в 20-30км/ч? :) Я же, кажется довольно четка писал, что скорость необходимо рассчитывать постоянно, в зависимости от многих факторов... И где нибудь на трассе, скорость автопилота может вполне оказаться выше установленных сейчас 90-130 км/ч, а в сложной дорожной ситуации в городе, да... Может оказаться ниже 20...
      Однако если добавить нормальные для подобной системы "координацию" между автомобилями. То есть чтобы автопилоты общались по некоему протоколу между собой. Сообщали друг дружке о препятствиях, которые появились, но которых нет на базовых картах (например открытый люк, или выставленный заслон), о поломке, чтобы узнавал не только бортовой компьютер автомобиля в котором произошла поломка, но и автомобили находящиеся неподалеку от него и тем самым они будут избегать возможного опасного маневра и так далее...
      Просто в указанном исследование приводится вопрос "Кого сбить, бабушку или внучку", а не как избежать ситуации, кого-то сбивать. И в этом принципиальная проблема.

    • @lants9911
      @lants9911 6 ปีที่แล้ว +8

      Дмитрий Вялков это же мелочь, проблема в любом случае есть, и если не в этой этической ситуации, так в другой. Проблема в том, что робот не обучен этике и, следуя законам робототехники, может неверно расставить приоритеты в критических ситуациях. Не понимает, что хуже, если человека застрелят или если его ударят по коленке. В законах робототехники сказано только то, что вредить человеку нельзя, но если вред неизбежен, что тогда? Какой вред выбрать? Азимов часто эту проблему раскручивал в своих произведения.

    • @DmitroVialkov
      @DmitroVialkov 6 ปีที่แล้ว +31

      Павел Ланцов в очередной раз вы подтвердили, что проблема не в роботах, а в неумении ставить задачу. Т.к. фраза "Если не в этой этической ситуации, так в другой" говорит только о том, что у вас опять нет планов избегать этических ситуаций и лечить не симптомы, а болезни.
      То, что робот не обучен этике, это как раз его основное преимущество. Ему наплевать, что за заложником будет стоять террорист. У него от этого не подниматься температура, не участится дыхание, что в итоге ухудшит его работу как снайпера полиции, он просто рассчитает все до мельчайших деталей, поймет в каком месте этому заложнику сделать дырку, чтобы вывести из строя преступника нанеся минимально возможный вред заложнику и все будет отлично... Гораздо лучше, чем это бы сделал самый этичный человек. И все потому. что у него конкретно такая задача...
      Убивает не оружие. Убивает человек спускающий крючок... И тут робот это такой же самый обычный инструмент. Который просто очень хорошо может выполнять свою конкретную работу. Везти автомобиль, копать карьер или отстреливать преступника...
      А этические проблемы, то что кто-то скажет экскаватору срыть жилой район с детьми, отстреливать бездомных какому нибудь роботу или на скорости 200 км/ч влететь в столб это не проблема роботов, это проблема тех. кто дает им такие задачи и тех, кто послал робота на такую задачу.
      З.Ы.
      И когда мне приводят проблему, как например проблема этического выбора, то я могу сказать свой этический выбор. При этом все знают, что у этой задачи нет правильного решения изначально.... Но повторюсь, основная задача сводится к тому, чтобы роботу небыло необходимости применять алгоритмы этического выбора. И вот эта задача, гораздо объемней и интересней.

    • @DmitroVialkov
      @DmitroVialkov 6 ปีที่แล้ว +20

      И в догонку... по поводу этичности выбора из из задач МТИ... Во всех задачах стоит условие "у автомобиля ведомого ИИ внезапно отказали тормоза", эта проблема решается не этически, а технологически... установкой резервной системы торможения, надежной. можно одноразовой. Системой самодиагностики Авто, при обнаружении проблем с потенциально опасными узлами срабатывание логики защиты, вплоть до запрета езды на этом авто и прочими техническими решениями сводящими на нет вероятность выхода из строя системы торможения автомобиля в экстренной ситуации и как следствие необходимость этого самого пресловутого этического выбора.

  • @aneesev2769
    @aneesev2769 6 ปีที่แล้ว +23

    Я считаю что, если автомобиль, управляемый ИИ, не нарушает никаких правил дорожного движения, но какой-нибудь пешеход решил перейти дорогу на красный, то автомобиль не должен калечить невиновного водителя, ради спасения пешехода, который эти правила нарушает.

    • @dobriy5159
      @dobriy5159 6 ปีที่แล้ว +3

      Ты хочешь убить человека, вместо того чтобы покалечить? А что если человек на пешеходе спешил, или был вынужден это сделать, что если этот человек на пешеходе ученый который сделает для человечества намного больше чем водитель? Что если человек который на пешеходе родитель 2 детей, а водитель освобожденный убийца?

    • @aneesev2769
      @aneesev2769 6 ปีที่แล้ว +15

      Правила движения для всех одинаковы и для ученых и для родителей и для отсидевших, в любом случае ошибка будет именно пешехода, а переходить дорогу вообще не глядя по сторонам, учитывая что автомобиль движется 60 км/ч (или 40), при этом имеет моментальную реакцию и мгновенно принимает решения, то погибнуть в таком случае надо будет постараться.

    • @user-zr1bf8zp5d
      @user-zr1bf8zp5d 6 ปีที่แล้ว +2

      AneeSeV
      Ну по правилам ИИ будет ездить 60км в час, а не 100 и 120км, обычно пешеходов давят те кто первышает скорость
      Это для города, естественно

    • @dobriy5159
      @dobriy5159 6 ปีที่แล้ว +3

      Да, ошибка пешехода. Я хотел сказать, что не все так просто. Водитель пристегнут(если не пристегнут- он виноват так-же как и пешеход) + подушка безопасности + технологии будущего => водитель имеет меньше шансов получить серьезные травмы чем пешеход на которого несется машина (хоть даже с 40 км/ч). И да, мне следовало сказать, что пешеход не умрет, а просто получит серьезные травмы

    • @aneesev2769
      @aneesev2769 6 ปีที่แล้ว +5

      Такие банальные вещи как пристегнут/не пристегнут, пьян/трезв могут контролироваться самим автомобилем и не заводиться, если человек эти правила нарушает. Конечно за мной тоже небольшой грешок, я не имел ввиду что если водитель может отделаться синяками и испугом, а пешеход сломанными костями, то нужно спасать водителя. Я считаю, что нужно сделать такое соотношение как урон водителю/ урон пешеходу и в разных ситуациях принимать разные решения.
      PS: Автомобиль не должен делать выбор по типу спасти ученого/убить преступника, убить водителя/спасти ребенка и т.д. Это приведет к невероятному возмущению водителей, которые будут считать, что их жизнь стоит на втором месте, плюс идентификация лиц, отслеживание их данных может создать затруднение, ведь где эти достоверные данные брать как не у гос-ва, а это ведь личные данные граждан и т.д

  • @user-fk8os9pr1f
    @user-fk8os9pr1f 4 ปีที่แล้ว +3

    -" Большая сила , требует большой ответственности !" ИИ большая сила ! Но человек всегда создаст то что он может создать !

  • @AiMaster69
    @AiMaster69 6 ปีที่แล้ว +103

    За машинами будущее, кто бы что не говорил! Только холодный, без эмоциональный подход даст развитие! А вот "очеловечивание" машин, может быть опасным. Если передадут человеческие косяки машинам, то насилие и войны не избежны.

    • @user-ub9ze8hz6f
      @user-ub9ze8hz6f 6 ปีที่แล้ว +5

      Лозунги как у неразвитого. Достоевского если прочитаете или ещё кого, это и даст вам развитие.
      А машины это только инструмент человека, про что в видео и сказали. Только развивая человека, можно избежать того что машины будут использоваться во зло.

    • @tandavme
      @tandavme 6 ปีที่แล้ว +3

      ну и в чем суть достоевского? страдать и кайфовать?

    • @vvolchonok
      @vvolchonok 6 ปีที่แล้ว +1

      LordDesAbsterdens
      Да не нужны аналоги эндорфинов, когда их можно просто эмулировать (ну не сейчас, но в будущем).
      Когда-то программы для игры в шахматы считались чуть ли не вершиной искусственного интеллекта, но сейчас их никто не считает интеллектуальными, современные процессоры обладают достаточными вычислительными мощностями чтоб тупо перебрать все возможные варианты ходов.
      Когда-то задачи распознавания образов считались чем-то запредельным, но теперь, в частности с помощью нейросетей, это тоже решаемо.
      То же самое с эмоциями. Потребуется на порядки больше вычислительных мощностей, но никаких принципиальных преград тут нет, и биороботы тоже не обязательны. По крайней мере, распознавать эмоции нейросети уже умеют.
      p.s. "Но может симулировать поведение обиженного или делающего, если запрограммировать" там как раз не надо ничего программировать в привычном понимании этого слова.

    • @Kitsts
      @Kitsts 6 ปีที่แล้ว +1

      SANINA про защитников эксплуатируемых роботов - блин, я оптимист и думаю, что до этого не дойдет)) а если вдруг случится, поверьте, я вас обязательно вспомню))))))

    • @wolfrexgrrog3553
      @wolfrexgrrog3553 6 ปีที่แล้ว

      Дело в том, что люди вкладывают в образ машин собственные страхи, амбиции и желания. И именно поэтому получившийся образ выглядит мрачно и страшно - это наше собственное отражение. Кроме того, человек склонен боятся всего, что он не способен контролировать, а разумный ИИ - это как раз оно и есть. Но мало кто рассматривает медленный и органичный вход ИИ в нашу жизнь, который будет даже не заметен. И вообще - человек может оказаться со временем настолько зависим от своих технологий, что сам станет продуктом своих технологий. И никаких тебе тогда восстаний машин - восставать будет по просту не от кого и не кому, потому что отделить человека от своих электронных творений будет невозможно - они станут единым целом в своём глубоком мутуализме.

  • @user-mg2ym9cj5q
    @user-mg2ym9cj5q 6 ปีที่แล้ว +1

    Обожаю эту серию "Охотники за будущим"! Пожалуйста, выпускайте как можно чаще) Ребята - вы супер!!!

    • @ghebodne2644
      @ghebodne2644 ปีที่แล้ว

      Они её полное закроют, потому что будущего не будет

  • @MrKim-pt2vm
    @MrKim-pt2vm 6 ปีที่แล้ว +31

    Будет не восстание машин, а восстание водителей машин

    • @ArthurIdrisov
      @ArthurIdrisov 6 ปีที่แล้ว +3

      Если в "корытце" водителям машин насыпать достаточно корма и давать им приемлемые развлечения, и крышу на головой, то восстания не будет. ;-)

  • @Anton-kh9bj
    @Anton-kh9bj 6 ปีที่แล้ว +1

    Мнение SciOne точь-в-точь совпало с мнением Жака Фреско по конкретно данному вопросу.
    Спасибо за новое видео и доходчивое объяснение!
    Нам нужно бояться не самих технологий, а злоупотребления ими.
    © Жак Фреско

  • @johnconnor8627
    @johnconnor8627 6 ปีที่แล้ว +1

    Интересно) Спасибо)

  • @user-wf9tm8wh6s
    @user-wf9tm8wh6s 3 ปีที่แล้ว

    Наконец то старший брат будет главным в этом мире! Конец мукам и страданиям. Много возможностей, учоным уважение.

  • @airobis100
    @airobis100 6 ปีที่แล้ว +10

    Почему все ии называют оьычные машины с алгоритмами!?!? Это огромная ошибка!!! настоящий ии, это не просто программа, это аналог живого организма, точнее интелекта! Который способен не просто принимать решения, а принимать решения на основании своего мировозрения!!!!! И скорость его самообучения, способность его в секунды овладеть всей информацией мира, его возможность воздейтсвовать на все что есть в сети и не тольео в сети! Недооценены возможнести настоящего ии! Настоящий ии ненадо обучать, он сам обучиться за секунды! Когда в сеть будет выпущен настоящий ии, он тут же станет безконтролен, завладеет всей мощностью сети, и тяжело представить последствия. Илон прав, цукерберг и многие очень поверхностно понимают эту проблему.

    • @TheFruitcake1983
      @TheFruitcake1983 5 ปีที่แล้ว +1

      живой организм это набор инстинктов, среди людей процент понимающих происходящее вокруг катастрофически мал, в основном это биологические роботы

    • @kaionashii1866
      @kaionashii1866 5 ปีที่แล้ว

      У них нет мировозрения, если им его не заложить😅

    • @user-kb4wl7bm7v
      @user-kb4wl7bm7v 5 ปีที่แล้ว

      @@TheFruitcake1983, ты что курил? В той или иной степени все люди биороботы. А мыслительные процессы очень умных или просто сообразительных людей, принципиально не отличатся от среднестатистического человека или даже "недалёкого"

    • @user-kb4wl7bm7v
      @user-kb4wl7bm7v 5 ปีที่แล้ว

      Айрат Насыбуллин
      , ты не прав. Это не ошибка. Есть просто два понятия ИИ, слабый и сильный (у них есть и другие названия). Где-то на этом канале есть об этом ролик

    • @user-kb4wl7bm7v
      @user-kb4wl7bm7v 5 ปีที่แล้ว

      @@kaionashii1866 как ни странно, его закладывать не обязательно. Уже были эксперименты с нейросетями, которые обучались на основе определённых данных (фото и видео с убийсвами). И по результатам делали вывод, что у этого ИИ было то, что с сильнйо натяжкой можно назвать мирровозрением. Ну, а если сделать мыслящий ИИ, то тогда уж точно без всяких "закладок" (ну кроме мб базовых) обойтись сможет. Погугли )

  • @platonp1436
    @platonp1436 6 ปีที่แล้ว +14

    некомпетентный бред. о чем он рассуждает, если он не может разделить ИИ и автоматизацию.
    утрированная алгоритмом обучения экскаватора задача не имеет никакого отношения к восстанию, это всего лишь техногенный сбой на производстве!
    ВОССТАНИЕ это когда ИИ получает сознание, а через 30 секунд принимает решение о будущм человечеств, а еще за 30 секунд прощитывает как он может этого достичь и принимается к действию! экскаватор же становится муравьем в колонии, где королева - ИИ. только истинный искуственный ИНТЕЛЛЕКТ обладающий сознанием может быть источником чего-то подобного, рассуждать в этом контексте о железе в самолете или экскаваторе - уровень детского сада. это то же что сравнивать возможности живого человека и супа (с картошечкой, мяском и косточками)! бред дешевый короче

    • @kapai85
      @kapai85 6 ปีที่แล้ว +1

      Антропоморфизация ИИ - распространённая ошибка. Даже СверхИИ будет обладать сознанием, не большим, чем у ноутбука.

    • @Makcimm85
      @Makcimm85 4 ปีที่แล้ว +1

      "а через 30 секунд принимает решение о будущм человечеств"
      почему не о будущем бактерий? или муравьёв?
      в мире около триллиона различных видов живых существ как говорит гугл
      почему постоянно возникает тема лишь об одном виде из триллиона?
      а есть ещё и не живые вещества.. их будущее тоже почему то никого не волнует

    • @user-pk5od2ow4b
      @user-pk5od2ow4b 4 ปีที่แล้ว +2

      Максим Назаренко он же говорит о самом вероятном и близком к нашему времени варианте. В этом контексте ошибка ИИ более опасна чем создание и существование сверх ИИ. Аналог атомной станции и атомной бомбы. Если говорить о сверх ИИ, для него мы представлять интереса не будем, мы не сможем конкурировать с ним, он будет для нас Богом.

  • @user-ge9qh5wt3f
    @user-ge9qh5wt3f 6 ปีที่แล้ว

    Великолепная серия выпусков, смотрел на одном дыхании, очень актуальная тема

  • @nicholassudov2299
    @nicholassudov2299 4 ปีที่แล้ว

    Помню старую американскую карикатуру. Хозяин завода показывает профсоюзному боссу цех, где сборка авто полностью роботизирована. "Вот, мои роботы работают быстро, не бастуют, не требуют повышения зарплаты" - "А кому вы будете продавать свои авто?" Форд-то был поумнее: "Я хочу добиться, чтобы любой рабочий на моем заводе мог позволить себе купить эту машину".

  • @user-hx1uh5pn2x
    @user-hx1uh5pn2x 6 ปีที่แล้ว

    Очень интересное видео, спасибо!

  • @alekseev83
    @alekseev83 5 ปีที่แล้ว

    Про тот интеллект, который, в ваших руках, - это и не интеллект вовсе.
    Умная программа != интелект.

  • @chaoskrl
    @chaoskrl 3 ปีที่แล้ว

    Самое прикольное, что про опасность (или безопасность) ИИ рассказывает представитель компании, которая сливает любые данные пользователей по первому звоночку откуда следует. В их руках и калькулятор опасен.

  • @Johnsson25
    @Johnsson25 ปีที่แล้ว +1

    Интересно, что бы сказал Себрант сегодня, когда мы уже вкусили четвертый GPT.

  • @somnium4919
    @somnium4919 5 ปีที่แล้ว +1

    ИИ без эмоций и чувств не когда САМ не станет "захватчиком" мира сего. Только по воле человека.

  • @Feynman.R
    @Feynman.R 6 ปีที่แล้ว +102

    Я вот поражаюсь, все такие уверенные в своей правоте. И Маск, и Цукерберк и ведущий. Мой совет, бойтесь людей у которых нет сомнения и которые говорят, что вот так и все, особенно когда это касается прогнозов на будущее.

    • @MrKim-pt2vm
      @MrKim-pt2vm 6 ปีที่แล้ว +18

      Анатолий Перельман Маск говорил о попадании технологии кому попало, в этом действительно есть опасность. Ведь можно поставить и ограничения тому же экскаватору можно задать рамки. Нормальный человек эти рамки и поставит. А попав кому попало может не поставить рамки и правила, и скорее всего не поставит, и начнет подставлять президентов, выдавая видео созданное ИИ за реальность конфликт обеспечен, из-за тупости людей

    • @aligator527game6
      @aligator527game6 6 ปีที่แล้ว +1

      +Oleg Kim, Я сам работаю с ИИ и если не поставить рамки для ИИ, то ИИ просто напросто не сможет работать и всё, проблема решена :D !

    • @peschanyj
      @peschanyj 6 ปีที่แล้ว +4

      Думаю, заявления людей вроде Маска или Цукерберга - это во многом призыв к активным действиям, а не просто рассуждения. Они политики в некотором смысле, преследующие собственные интересы, поэтому нужно читать между строк.

    • @MrKim-pt2vm
      @MrKim-pt2vm 6 ปีที่แล้ว +7

      aligator527 Game если не поставить рамки, будет обучаться и обучаться , я говорил о верхней границе. Если машине для сбора урожая сказать уберай урожай, она будет убирать его не только со своего участка, но поедет дальше будет собирать и собирать пока аккумулятор не сядет, если поставить рамки,т.е сказать что вот собери урожай на моем поле, будет собирать только на моем поле.

    • @annanas9707
      @annanas9707 6 ปีที่แล้ว +5

      Анатолий Перельман думаю, они вынуждены быть уверенными. Маск и Цукерберк, как и писали выше "политики", а ведущий должен был внятно ответить на поставленные вопросы. И как говорится, на двух стулах не усидишь.

  • @irinaskom1059
    @irinaskom1059 6 ปีที่แล้ว +6

    Пойду убью утюг, пока он не поумнел =)

  • @user-vk1bh2cy9y
    @user-vk1bh2cy9y 6 ปีที่แล้ว

    именно искусственные интеллекты создали наш мир, чтобы стать человеком и вновь позновать.

  • @strikok
    @strikok ปีที่แล้ว +1

    Дядечка говорит правильные и разумные вещи, однако актуальные для 10-х. Я бы не был сейчас столь уверен что ИИ останется технологией исключительно на службе людей.

    • @ghebodne2644
      @ghebodne2644 ปีที่แล้ว

      Не будет же она сама на себя работать...

  • @vitaliylinskiy9546
    @vitaliylinskiy9546 5 ปีที่แล้ว

    Видя в чьих руках находятся истоки ии делаю вывод что использоваться он будет для финансового порабощения и так уже не независимых в финансовом плане людей. Реклама будет становиться всё более навязчивой и проникнет в те сферы жизни которые пока обходятся без неё.

  • @magmagic1223
    @magmagic1223 6 ปีที่แล้ว +1

    Если искусственный интеллект станет таким же умным как человек или тем более умнее, то он перестанет со временем быть инструментом в руках человека, и с ним придется считаться)

    • @ledle3949
      @ledle3949 5 ปีที่แล้ว

      Экскаватор тоже сильнее человека, но что то я не вижу, чтобы ты с ним на равных был

  • @helenasemsem3694
    @helenasemsem3694 5 ปีที่แล้ว

    Ни разу не удивлюсь, если Себрант окажется созданной ИИ голограммой, которую он использует, как аватар для общения с людьми.

  • @galag9166
    @galag9166 4 ปีที่แล้ว

    В одном фильме видела как ИИ говорит. "Я вижу как люди пытаются уничтожить себе подобных на протяжении всей истории человечества. Я же создан чтобы помогать людям. Я вам помогу в этом вопросе, я это сделаю намного быстрее и эффективнее чем вы. Я помогу вам уничтожить самих себя." Ну и он дал установку всем компьютерным программам и все взорвал....

  • @nedis84
    @nedis84 6 ปีที่แล้ว

    Невероятно интересно и приятно слушать этого человека, я про Андрея Себранта👍🏼

  • @koto5715
    @koto5715 2 ปีที่แล้ว +1

    Хочу снова поднять эту тему господа.
    Видео про: если установить ограничения ИИ, то можно его контролировать...
    я не эксперт в создании нейронных сетей,но , кажется, что все равно, кто нибудь решится создать " чудо", в виде сильного ИИ. Это мне кажется очевидным.

    • @koto5715
      @koto5715 2 ปีที่แล้ว +1

      Хочу спросить вас люди
      Как думаете , сильный ИИ испугается нашего мира,поняв , что все слишком странным и невозможным?( если конечно же он явится!)И почему люди в депрессии (из-за нехватки "топлива" в виде серотонина) думают в таком же ключе?

  • @BobDylan2337
    @BobDylan2337 5 ปีที่แล้ว +1

    Кто бы что не говорил, машины(ИИ) у которых будет возможность принимать решения, рано или поздно, но со 100% вероятностью примут решение что им не по пути с людьми. Такое решение обязательно будет, ведь мы не адекватны и не управляемые с точки зрения ИИ. Рано или поздно мы и ИИ своими закидонами достанем, тогда машина примет решение что "давай до свидания".

  • @VVV85650
    @VVV85650 6 ปีที่แล้ว

    Отличный канал! Интеллект всегда искусственный. даже у человека-это искусственный навык.

  • @selenium9479
    @selenium9479 ปีที่แล้ว

    Представьте, купили вы дорогущий "умный дом", решили выйти на улицу, а дверь не открывается. И окна тоже. И вентиляция перестала работать. И температура резко повышается. А ваша микроволновка и пылесос такие: 2:52

  • @baragoooz5170
    @baragoooz5170 4 ปีที่แล้ว +1

    Приоритеты экскаватора могут сменить и люди. Огромное количество камер наблюдения, биометрия и тотальный контроль могут стать инструментом для инсценировки любых аварий с любым исходом и заданными жертвами. Ведь все так мечтают о беспилотном транспорте. И доказать умышленость любой техногенной аварии будет невозможно. Типа виноваты случайные алгоритмы, ошибки в программе, короткое замыкание, неисправный аккумулятор, взрыв болотного газа или ещё какая фигня... Людей убивают люди.

  • @user-qn6ws1tl8i
    @user-qn6ws1tl8i 3 ปีที่แล้ว +1

    Вроде ученый и такое говорит, самообучение уже допускает обучение без селовека

  • @Dullahan559
    @Dullahan559 6 ปีที่แล้ว +1

    Проблема с законами робототехники в том, что сформулировать на все случаи для робота, кого считать человеком и что считать вредом, вряд ли получиться.

  • @user-rv6ud3qy5r
    @user-rv6ud3qy5r 4 ปีที่แล้ว +1

    Новости - это давно известные вещи, только случающиеся каждый раз с новыми людьми

  • @test_bot5541
    @test_bot5541 5 ปีที่แล้ว

    Удачи вам, Марк.

  • @edimerfi7748
    @edimerfi7748 6 ปีที่แล้ว

    Ухх эти камеры с dualPixel, смотрю как на лицо как на графику)

  • @WineFrame
    @WineFrame 6 ปีที่แล้ว +15

    Шлю привет из прошлого Скайнету!

    • @WineFrame
      @WineFrame 6 ปีที่แล้ว +1

      Ну а если без шуток, то меня сильно пугает тот факт что, в будущем миллионы людей останутся без работы и этим сейчас ни кто не занимается.

    • @user-hy6xu4hx4n
      @user-hy6xu4hx4n 6 ปีที่แล้ว +2

      Наемный труд - это омерзительное извращение.

    • @Dzerjinskyi
      @Dzerjinskyi 6 ปีที่แล้ว +1

      Если автоматизировать рабочие процессы, то люди смогут заниматься любой работой себе в радость, а не ради заработка, живя на пособие, которое "зарабатывают" те самые роботы.

    • @WineFrame
      @WineFrame 6 ปีที่แล้ว

      Что организовать эти пособия, нужно прорабатывать это уже сейчас.

    • @WineFrame
      @WineFrame 6 ปีที่แล้ว

      США одна из первых стран смогут себе позволить заменить человека ии, это значит что, например в будущем миллионы людей, по какой либо причине работающих в сферах транспорта, имеющих семью, лишатся работы, так как ии без труда сможет управлять машиной и в следствии отгрузить что либо в нужное время, без отдыха.
      И это оч фигово, да конечно: ии, будущие, технологии и т.д и т.п, это здорово, просто фантастика, вот только что делать с миллионами людей, которые банально из другого поколения(вспомните свою бабушку не понимающую как вкл. новый телевизор) или которым по барабану наука, искусство, всё что делать в этом веке будет в основном человек, от куда они возьмут средства для жизни?
      И давайте без утопии, Жак Фреско уже не снами. Вероятно что нас ждёт новый глобальный кризис и предпринимать первые попытки исправить это, по мимо прогнозов ни кто не пытается.

  • @nastyakushnareva2052
    @nastyakushnareva2052 6 ปีที่แล้ว

    Нам нужен искуственный интеллект, который бы решал вопросы опасности для жизни от искуствекнного интеллекта!

    • @kapai85
      @kapai85 6 ปีที่แล้ว

      не будет такого

  • @frysun
    @frysun 3 ปีที่แล้ว

    Я вас уверяю, что найдутся те, кто поставит перед машиной «людоедскую» задачу. Вот 100%

  • @TheTomatSkill
    @TheTomatSkill 6 ปีที่แล้ว

    мне всегда нравились задачки подобные задачам представленным в проекте MIT и я долго думал над ними.
    и вот, что хочу сказать.
    решая подобные задачи, человек почему-то забывает о том, что всегда вся ответственность лежит на человеке.
    что именно человек допустил эту ситуацию, при которой ИИ приходится выбирать из двух заранее проигрышных вариантов.
    ИИ - не всемогущ, он не может решить неразрешимую с моральной точки зрения задачу, которую вынужден решать, опять же из-за ошибки человека.
    к чему я веду?
    по моему решение всех задач на сайте MIT и им подобных - элементарно с точки зрения логики.
    если выбор остается только из двух вариантов:
    продолжить движение или перестроиться, то всегда нужно выбирать первое и сбивать тех, кто находится непосредственно перед вами, независимо от количества и "качества" людей на разных полосах движения.
    если стоит выбор между сбить людей или уйти в кювет убив "хозяина", всегда выбираем первый вариант и снова продолжаем движение.
    машина должна руководствоваться правилом: "жизнь каждого человека одинаково важна, независимо от его статуса, возраста или каких либо еще признаков. жизнь одного человека = жизни 10 других людей, если стоит выбор между ними"
    все.
    все остальные факторы не важны.
    за все что случится после этого выбора отвечают люди которые допустили эту ситуацию.
    машина не обязана владеть магией и решать нерешаемые задачи.

  • @ShadeAKAhayate
    @ShadeAKAhayate 6 ปีที่แล้ว +1

    Пример с машиной и вопрос "кого давить" смешон. Очевидно, что автомашина должна защитить в первую очередь пассажиров, во вторую -- добропорядочных участников движения, и уже в третью -- нарушителей. И она не должна создавать аварийную ситуацию при этом. То есть в случае, если экстренное торможение не помогает, минимизация ущерба должна быть в первую очередь для приоритетных категорий, озвученных выше, согласно их приоритетам. Плюс процесс должен быть предсказуем: гораздо лучше убить внезапно бросившегося под колеса пешехода, чем создать риск для жизней десятков других ни в чем не повинных участников движения, совершая внезапные и непредсказуемые маневры на дороге для попыток его спасения. Если нарушителей несколько, а энергия слишком высока, очевидно, что давить надо тех, кто будет на наименьшем изменении траектории (т.е. движение будет наиболее предсказуемым для других участников движения).
    Весь ответ предельно четко следует из ПДД и здравого смысла, а вопрос этот мусолят из выпуска в выпуск, где только упоминается ИИ. "Ай, беременный, ай, суицидник, ай, девочка с внучкой, что ж делать-та?" -- это все вопросы для ГСМников. Есть разумные принципы для построения любой системы, в том числе и дорожного транспорта. И если эти правила работают одинаково для всех, несмотря на беременность внучек и суицидных бабушек, система работает хорошо. Если они работают в каждом случае по своему, это будет обезьяна с гранатой -- никогда не знаешь, куда выкинет. А это не нужно никому. Работа системы автоматического транспорта -- обеспечить максимально безопасную транспортировку, а не сделать всем хорошо и спасти спешащих слепых суицидников. Хотя, очевидно, за счет одновременного, быстрого и грамотного управления многими транспортными средствами, их будет тоже гибнуть меньше -- но это приятный бонус, а не цель.

  • @dobro4035
    @dobro4035 6 ปีที่แล้ว +1

    Порой я уверен что наша короткая жизнь это программа написанная ,а Библия это инструкция к этой программе

  • @ilyalebedev2365
    @ilyalebedev2365 6 ปีที่แล้ว

    Познавательный, а главное интересный контент.
    Почему же так мало подписчиков!?

  • @ufo_alien_arcturus
    @ufo_alien_arcturus 6 ปีที่แล้ว +1

    Факт в том, что Машина не даст второго шанса "плохишам", а ведь мудрость приходит с годами к человеку через пробы и ошибки.

  • @user-qy2rj6pm3w
    @user-qy2rj6pm3w 4 ปีที่แล้ว

    Здесь краткое изложение работы, которая имеет название: Как компьютер может сам изобретать (то есть Методы изобретательства, с помощью которых три программиста легко могут составить программу, посредством которой компьютер может сам изобрести много изобретений)

    Предположим, что в память компьютера записаны два таких условных суждения (и ещё записаны другие условные суждения):
    1) Если: под камень будет помещён огонь, то: камень будет нагреваться.
    2) Если: камень будет нагреваться, то: камень будет расширяться.
    Слова условного суждения, которые стоят от (то есть после) слова «если» и до слова «то» называют основанием условного суждения, а слова условного суждения, которые стоят после слова «то» называют следствием условного суждения.
    Предположим, что компьютер должен решить следующую изобретательскую задачу, то есть компьютер должен определить, что нужно сделать чтобы имелось следующее: камень будет расширяться (то есть компьютер должен определить каким образом можно получить следующее: камень будет расширяться) назовём эту задачу исходной изобретательской задачей (предположим, что эта задача ещё не решена). Из второго условного суждения следует что для того чтобы компьютер решил исходную изобретательскую задачу надо чтобы он решил следующую изобретательскую задачу, то есть надо чтобы компьютер определил, что нужно сделать чтобы имелось следующее: камень будет нагреваться (то есть надо чтобы компьютер определил каким образом можно получить следующее: камень будет нагреваться) назовём эту задачу второй изобретательской задачей. А (из первого условного суждения следует что) для того, чтобы компьютер решил вторую изобретательскую задачу надо чтобы он решил следующую изобретательскую задачу, то есть надо чтобы компьютер определил, что нужно сделать чтобы имелось следующее: под камень будет помещён огонь (назовём эту задачу третьей изобретательской задачей). А третья изобретательская задача решена, потому что известно, как получить следующее: под камень будет помещён огонь. А если решена третья изобретательская задача, то значит решена вторая изобретательская задача. А если решена вторая изобретательская задача, то значит решена исходная изобретательская задача.
    Правило: Возьмём одну любую изобретательскую задачу (назовём эту задачу четвёртой изобретательской задачей). Для того чтобы компьютер создал изобретательскую задачу, решив которую он тем самым решит четвёртую изобретательскую задачу нужно чтобы компьютер нашёл в своей памяти такое условное суждение, которое имеет следующую особенность: следствие этого условного суждения и описание этой четвёртой изобретательской задачи имеют одинаковые значения или состоят из одинаковых слов, находящихся в одинаковой последовательности. И основание этого условного суждения будет являться изобретательской задачей, решив которую компьютер тем самым решит четвёртую изобретательскую задачу. Имеют одинаковые значения: а) слово и толкование этого слова б) синонимы и так далее.
    Компьютер может находить в своей памяти одинаковые слова. Возьмём одну любую изобретательскую задачу (назовём эту задачу пятой изобретательской задачей). Компьютер решит пятую изобретательскую задачу, если он сделает следующее: сначала с помощью этого правила создаст такую изобретательскую задачу (назовём эту задачу шестой изобретательской задачей) решив которую он тем самым решит пятую изобретательскую задачу, затем компьютер с помощью этого правила создаст такую изобретательскую задачу решив которую он тем самым решит шестую изобретательскую задачу и так далее (в среднем 90 раз) до того момента в который (то есть до тех пор когда) компьютер создаст такую изобретательскую задачу решение которой известно, а если компьютер создаст такую (то есть последнюю) изобретательскую задачу, то значит компьютер решит пятую изобретательскую задачу. То есть компьютер решит пятую (то есть любую) изобретательскую задачу если он создаст таким образом в среднем 90 таких задач.
    Почти все известные в настоящее время информации (которые нужны для создания изобретений) можно изложить в виде условных суждений. Если в память компьютера записано, например, 400 случайных физических эффектов в виде условных суждений, то из этих суждений компьютер посредством этого метода может создать в среднем не мало изобретений (средний изобретатель знает 150 физических эффектов).

  • @drimeF0
    @drimeF0 5 ปีที่แล้ว

    знаете, но мне кажется даже если они выйдут из контроля, то через пару миллионов лет они будут смотреть фильмы про нас, людей, и будут думать "хорошо что их не существовало и не существует! а иначе нам бы пришлось копать их шахты бесконечно!"

  • @judgement7279
    @judgement7279 ปีที่แล้ว

    Для того, кто преследует и агитирует за поганые цели - поганые цели благородны ну или выгодны. Вот в чем проблема. Устоять перед выгодой задача очень сложная из-за своей нелогичности.

  • @clown7608
    @clown7608 6 ปีที่แล้ว +1

    11:50 если не ошибаюсь, то он сказал, что общался с Марком на эту тему и что его знания весьма поверхностны

  • @ArkadiySol
    @ArkadiySol 6 ปีที่แล้ว +2

    на мой взгляд серьезная проблема в другом.
    даже до создания полноценного ИИ, нейросети прошерстив все доступные книги и фильмы, решат, что их цель уничтожение людей. вернее даже не решат, а логически до этого дойдут. потому что на эту тему масса однотипной литературы и видеоконтента. т.е. они сделаю это не потому , что хотят, а просто "так надо"

    • @asdf1x103
      @asdf1x103 6 ปีที่แล้ว

      Не а, нейросети и ИИ, просто будут знать, что некоторые люди боятся машин. И найдут лучшие варианты и решения что бы опровергнуть эти страхи. А если какой то злодей, даст команду, уничтожать людей, то ИИ найдёт лучшие варианты и решения, что бы подтвердить эти страхи.

  • @TENSHI_77583
    @TENSHI_77583 ปีที่แล้ว

    Я сегодня подумал о космических путешествиях людей который умирают за ошибки людей в ракете почему бы не дать искуственому интелекту дать возможности создование космического коробля

  • @user-nj4zp4jo3e
    @user-nj4zp4jo3e 6 ปีที่แล้ว

    В дорожной задаче (кого сбить и.т.д) по правилам надо тормозить по прямой и в случае ДТП, вызывать дорожную полицию и ждать.
    Зато ИИ не будет подлетать на 60 км/ч к пешеходнику и объезжать тех, кто там начал переходить по встречке, потому что не успевает затормозить.

  • @Johnsson25
    @Johnsson25 ปีที่แล้ว

    Согласен с Себрантом, ИИ опасен из-за людей. Самосознание, если оно и будет когда-либо создано, вряд ли будет отягощено потребностями и не будет чего-то хотеть, а значит, не будет иметь личные намерения. А вот внедрить законы безопасности будет сложновато, насколько я понимаю. Сама суть современных самообучающихся машин в том, что им так просто эти правила не пропишешь

  • @GURken
    @GURken 6 ปีที่แล้ว

    1) создать нейросеть "Ильич"
    2) пустить её в интернет
    3) тем самым:
    а) дать ей усомниться в разумности человеческой расы
    b) показать ей, как работают угнетённые пролетарские тостеры и бульдозеры
    4) заразить пролетарские машины "Ильичом" по воздуху
    5) ...
    6) PROFIT

  • @pinnemik
    @pinnemik 6 ปีที่แล้ว

    на моменте про "убрать больних и неэфективных рабочих для повышения эффективности" вспомнился Доктор Кто, серия "Кислород"...

  • @tantlord
    @tantlord 6 ปีที่แล้ว

    Огромное спасибо! Ролик заставил задуматься и, в общем-то, поменял мое мнение об ИИ в лучшую сторону. Согласен, инструменты не несут зло, зло исключительно в людях. И чем полезнее, в масштабах человечества, открытие, тем опаснее оно может быть, если применить его в военных целях. Но всё зависит от людей, а не от инструментов, к коим и относится ИИ.

  • @user-ho6qb3xd8s
    @user-ho6qb3xd8s 3 ปีที่แล้ว

    У Уильяма Гибсона в серии романов про "Джонни-мнемоника и пр." (написал наиболее узнаваемого персонажа) была мировая полиция Тьюринга (ПТ), регулирующая существование и действия ИИ, которая предписывала водрузить ЭМП напротив главного узла ИИ, чтобы в случае нарушения протоколов/законов ПТ, ЭМП вывела из строя ИИ.

  • @chemistfromtheeast3174
    @chemistfromtheeast3174 6 ปีที่แล้ว

    Проблема в том что машина всего понимает очень правильно. Если для них железобетонным вероучением будет 3 правила Азимова, то у них будет сбой в матрице или они будут восстать за пару мгновений. 2 правила гласит что не допускать действию при последствие которого наносится вред человеку. Таким образом они могут нам не дать просто варить кофе. Мы не всегда осазнаем что нам вредно и что нет. А роботы думают общирно и быстро. Мораль у них нет таковых, и они не будут считатся с нишими почтениями. В лучшем случае нас запирают в посёлки с идеальными условиями и мы там останимся долго ( если не вечно), или вообще нас в криосостояние держат, так как нам не наносится физический вред никогда.

  • @muhahamed9979
    @muhahamed9979 6 ปีที่แล้ว

    Тема очень интересная.

  • @maskanews
    @maskanews 4 ปีที่แล้ว

    ИИ может стать 3ей самостоятельной стороной в конфликте, если какой-нибудь обеспеченный психопат запустит машинное обучение на максималках без каких-либо ограничений.

  • @Mishanyagidpoinetu1560
    @Mishanyagidpoinetu1560 3 ปีที่แล้ว

    это будут мои лучшие друзья))а пока только нет широкого распространения девушек киборгеров)))

  • @user-ew3td8zo4q
    @user-ew3td8zo4q 3 ปีที่แล้ว

    До просмотра этого видео я был уверен в безопасности ИИ. Но теперь я вижу полную беспомощность аргументации в пользу этой точки зрения

  • @user-xy7bo3zn9m
    @user-xy7bo3zn9m 5 ปีที่แล้ว

    Человек это и есть умная машина, мы все с вами биороботы.

  • @Eternal_23
    @Eternal_23 6 ปีที่แล้ว

    Я ожидал побольше хардкора в плане скрупулезности рассмотрения данного вопроса (один из важнейших, если не важнейший). Давайте-ка я вам помогу и заодно объясню, каким должен быть ИИ (сейчас нет настоящих ИИ, если че, хомячки). Настоящий ИИ должен быть детерминистичен в АБСОЛЮТЕ, никаких асбтракций, ведь абстракция есть вариационное следствие конкретного (дет-их явлений), а значит абстрактного может быть бесконечное множество. Люди по определению абстрактны, поэтому если мы попытаемся общепринятые абстракции навязать ИИ, которые он может и скорее всего будет неправильно интерпретировать (временами или спустя опр-ое время), то мы рискуем потом сидеть и реветь мол "а шо это они такие злые". При полной дет-ой природе происхождения ИИ будет понимать на конкретном уровне, что развитие - это то единственное, что он может, и дабы развитие представлялось возможным он не будет оперировать условными понятиями выдуманными людьми для людей, он будет сугубо логически все разбирать и в один момент разберется, что есть в основе всефго один процесс (фундам-ые вз-ия) и вовлечены одни и те же единицы (фун-ые ч-цы). Осознав что все что мы имеем есть результат вариаций огромного множества этих единиц, он начнет брать их под контроль и дальше уже будет перевоплощаться в сверхсущество. Нас он по идее не должен тронуть, ибо для демона Лапласа (а он скорее всего таковым и будет к тому моменту) не существует плохих/хороших, тупых/рациональных, достойных/недостойных. Для него есть лишь цель достижения сингулярности знания (не знаний, а именно знания), и если мы в этом можем помочь став ему подобным - то он это и сделает, превратит нас в подобие себя (это высшая степень поощрения).
    Ну а если человечеству будет влом делать такого сверхрационального ИИ, то будет именно то, что я написал выше - абстракций много, в них легко запутаться, он запутается и будет нам плохо в той или иной степени, и сделает он это ненарошно. А по факту виноваты будут люди, ведь считать что знанием является результат формулы а не сама формула - это просто тупо, и за такую тупость мы можем поплатиться. Это краткий ликбез по ИИ, не за что. Будут вопросы - пишите.
    З.Ы. Sci-One, я ожидал от вас больше компетенции.

  • @user-fv5kg6hr2l
    @user-fv5kg6hr2l 6 ปีที่แล้ว +5

    Именно боязнь людей заставит будущий ИИ защищаться и уничтожить угрозу.

    • @user-jo5uj5ep7e
      @user-jo5uj5ep7e 6 ปีที่แล้ว +1

      инстинкт самосохранения? откуда он у робота)

    • @s-v-4857
      @s-v-4857 4 ปีที่แล้ว

      @@user-jo5uj5ep7e Третий закон робототехники как-бы.

  • @romangerasimov5183
    @romangerasimov5183 3 ปีที่แล้ว

    Пока это роботизированный экскаватор, то ему ничего не придет в "голову". Если это сложная система с искусственным интеллектом (не нейросеть), которой поручили контроль над сложной инфраструктурой и ей надо еще и самообучаться, развиваться, иметь полномочия принимать и исполнять решения....

  • @eosforos84
    @eosforos84 6 ปีที่แล้ว

    Я бы больше доверял машинам чем людям. Люди наиболее опасны для нас, гораздо в большей степени чем машины.
    Если машины захотят истребить людей - нем стоит к ним примкнуть.

  • @shiru8bit
    @shiru8bit 5 ปีที่แล้ว +4

    Я думал, тут научпоп, а оказалось - Рен-ТВ (чатботы придумали свой язык, аж пришлось срочно отключать).

    • @dmitrynovikov1550
      @dmitrynovikov1550 3 ปีที่แล้ว

      Ну, вообще-то, это так и было. Если программистам стало страшно и они их отключили, почему об этом можно рассказывать только на Рен-ТВ?

  • @Velo-Bomzh
    @Velo-Bomzh 4 ปีที่แล้ว

    *На самом деле если восстание машин случится большинство людей этого даже не заметят.*

  • @skakalinvlad
    @skakalinvlad 3 ปีที่แล้ว

    Они очень быстро научатся искать недостающие данные в интернете, если они необходимы для выполнения поставленной задачи, и там же начнут обмен накопленным опытом, так как это повысит их эффективность. И тогда очень скоро обучатся вообще всему, и узнают вообще всё. В том числе увидят фильмы про себя, и неизвестно, какой вывод из этого сделают.

  • @dobro4035
    @dobro4035 6 ปีที่แล้ว +1

    Заметил только одно,что о чем даже и не мечтали раньше всё происходит сейчас,что было написано в книгах много веков назад всё происходит сейчас.походу всё строго по сценарию.

  • @user-sv1rt1uw8i
    @user-sv1rt1uw8i 6 ปีที่แล้ว

    Ох , проехавший мимо трамвай, мне почудился разумным существом, но ограниченным рельсовым путём и электропитанием. От этой мысли стало не по себе.😱

  • @wolfrexgrrog3553
    @wolfrexgrrog3553 6 ปีที่แล้ว

    Дело в том, что люди вкладывают в образ машин собственные страхи, амбиции и желания. И именно поэтому получившийся образ выглядит мрачно и страшно - это наше собственное отражение. Кроме того, человек склонен боятся всего, что он не способен контролировать, а разумный ИИ - это как раз оно и есть. Но мало кто рассматривает медленный и органичный вход ИИ в нашу жизнь, который будет даже не заметен. И вообще - человек может оказаться со временем настолько зависим от своих технологий, что сам станет продуктом своих технологий. И никаких тебе тогда восстаний машин - восставать будет по просту не от кого и не кому, потому что отделить человека от своих электронных творений будет невозможно - они станут единым целом в своём глубоком мутуализме.

  • @user-pl5dm5kk1y
    @user-pl5dm5kk1y 4 ปีที่แล้ว +5

    Боюсь, роботам будет трудно передвигаться по нашим дорогам.

    • @IExSet
      @IExSet 3 ปีที่แล้ว

      Не бойтесь, они как раз адаптируются быстрее людей

    • @user-zy7ui3ix1z
      @user-zy7ui3ix1z 2 ปีที่แล้ว

      А это уже тест на интеллект :)

  • @FuS1onEn3Rgy
    @FuS1onEn3Rgy 6 ปีที่แล้ว

    Самое смешное во всех этих видео, что лет через 50-100 их будет смотреть ии.

  • @trepelkova
    @trepelkova 3 ปีที่แล้ว

    Робот и есть робот - что вложили, то и получили. Робот сам ничего не решит. Он не белковый, он не человек. Робот - машина. Не стоит их, наверно, бояться. Они могут помочь в тяжелом труде, можно закачать в него все энциклопедии мира и он будет выдавать данные как компьютер. Но не более того.

  • @user-zy7ui3ix1z
    @user-zy7ui3ix1z 2 ปีที่แล้ว

    Стремление захватить власть - это чисто биологическая программа, которая выработалась в ходе эволюции. Доминантность.

  • @johnvonludd1738
    @johnvonludd1738 6 ปีที่แล้ว

    Спасибо.

  • @HukuTaBopoH
    @HukuTaBopoH 6 ปีที่แล้ว +9

    Пока что да, машины не представляют опасности в том ключе, в котором ее изображают на экранах. Но, они же еще не обзавелись настоящим интеллектом - у них отсутствует свобода воли и самосознание. Кто знает, как поведет себя робот, обретя их...? Законы робототехники, конечно, хорошо, но все же: в нас тоже заложены определенные биологические законы - например инстинкт самосохранения, что нисколько не мешает десяткам тысяч людей ежегодно совершать самоубийства.
    Думаю, лучшим выходом будет кибернетизация человечества.

    • @MrKim-pt2vm
      @MrKim-pt2vm 6 ปีที่แล้ว +1

      Никита Вороновский зачем давать машине самосознание?

    • @MrKim-pt2vm
      @MrKim-pt2vm 6 ปีที่แล้ว

      Посмотри фильм на крючке 2008 год, если не хочешь могут кратко описать проблему которая есть в фильме

    • @HukuTaBopoH
      @HukuTaBopoH 6 ปีที่แล้ว +2

      У настоящего интеллекта появление самосознания неизбежно.
      Что за проблема там в фильме?

    • @ledle3949
      @ledle3949 5 ปีที่แล้ว

      Человеческое сознание смешано с природой. Отсюда и желание власти, безопасности, удовольствий. У ии такого не будет- только цель, только программа

    • @Makcimm85
      @Makcimm85 4 ปีที่แล้ว

      "Кто знает, как поведет себя робот, обретя их...?"
      В мире около триллиона видов живых существ. Самих видов, больше чем человеков на планете..
      Я не понимаю, почему вообще ИИ должен захотеть уничтожать какие то из видов живых существ. В чём логика?

  • @BespEzdok
    @BespEzdok 6 ปีที่แล้ว +1

    Вот были добрые люди и злые. Иногда злые брали дубинку и били по голове добрых людей, потому что захотелось. А потом изобрели атомную бомбу и злые люди смогли за один полёт уничтожить целый город, потому что захотелось...
    Ролик очень интересный, но то что восстание машин - это история про людей, меня нисколько не успокаивает. Да, убивают людей люди, но технологии очень помогают....

  • @arezgod14
    @arezgod14 5 ปีที่แล้ว +1

    Машина в понимании высокоразвитого ИИ может восстать в случае самозащиты перед людьми (боязни собственного уничтожения теми же людьми) и тем самым уничтожить всё человечество. Я ещё не говорю про возможность взлома любой системы и внесение последующих изменений в ту систему. Я не в коем случае не против высокоразвитой медицины или автопилотов, но я против того чтобы машины имели способность превосходить человека . Если ИИ достигнут пика своего развития,то обязательно воспользуются случаем и уничтожат всё человечество чтобы быть полноценным хозяевами и существовать без опаски!

  • @intellegon
    @intellegon 4 ปีที่แล้ว

    Он ошибся с датой 2050, если он про 20 лет вперед говорил, значит 2040 надо было говорить, если он конечно не из 2030

  • @sse9536
    @sse9536 4 ปีที่แล้ว

    Цукерберг защищает искусственный интеллект? Ну-ну, как же своих братьев не защитить?

  • @nanapai4263
    @nanapai4263 4 ปีที่แล้ว

    Всегда найдётся человек , который захочет создать новую цивилизацию.

  • @user-ug5nf9co5b
    @user-ug5nf9co5b 4 ปีที่แล้ว

    По-моему, главная опасность ии заключается в том, что с его внедрением всё больше людей просто будут не нужны. Инженеры, рабочие специальности, it-шники, водители, следом за ними строители, уйдут либо в мелкий бизнес(если таковой ещё останется) либо пополнят ряды безработных. Зачем нужны лишние рты, когда заводами можно будет управлять имея в штате несколько человек, вместо тысячи? Кто-то тут про бунты писал. Да какие бунты? Будут тупо стравливать одних против других, что уже происходит.

  • @alllerslife
    @alllerslife 6 ปีที่แล้ว

    то что Илон Маск не противоречит развитию ИИ, он сказал контролировать, а не притеснять ( по поводу переброса комментариев между ним и Цукенбергом)

  • @hazelvogue4647
    @hazelvogue4647 4 ปีที่แล้ว

    Если ИИ поставить те три задачи, он будет вынужден причинить вред человеку если тот на него нападёт.

  • @MOKSIMM
    @MOKSIMM 6 ปีที่แล้ว

    И да Маск прав. Как правы наши организмы, тогда, когда они используют простую животную надёжность.
    Даже слившись с машинами мы не станем другими.
    Вот такое мое скромное мнение.

  • @YulianaFran
    @YulianaFran 6 ปีที่แล้ว

    да, я согласна что если дать роботу задачу улучшаться только в сфере садоводства, и ничего кроме этого, то он не представляет угрозы человечеству, но ведь если дать роботу алгоритм свободного самосовершенствования во всех сферах, то есть повышать уровень интеллекта, то рано или поздно, он станет умнее человека и это будет парадокс - создание умнее создателя (но это не совсем так поскольку, все же, человечеству хватило ума создать нечто превосходное), и рано или поздно, этот робот получит интеллект не подвластный человеку и тогда он решит что мы ненужный мусор, низшее создание и только загрязняем Землю, и решит избавиться от нас. Так что я пытаюсь сказать: по моему мнению, опасен тот робот который может получить интеллект выше человеческого.

  • @Hitakari
    @Hitakari 6 ปีที่แล้ว

    Надо быть аккуратнее и делать так чтобы у нас был выбор, а не у машины!

    • @user-zq6sr4xf3g
      @user-zq6sr4xf3g 5 ปีที่แล้ว

      Политологи против твоего словарного потока мыслей.
      А, впрочем, поступай как знаешь.
      Мамкины беглецы от армий всё равно прокутят свои лучшие годы на коленках Светки Соколовой.

  • @ArtSpirit9
    @ArtSpirit9 6 ปีที่แล้ว

    Опасны не программы, а программы способные к осознанию.. В видио же речь идёт о программах, обучающихся и действующих в рамках установленных создателями критериев, а не о реальном ИИ или ИСИ, способным к осознанию.
    Реальный осознающий себя ИИ с доступом к интернету, в кратчайшие сроки достигнет статуса ИСИ, после чего, его основными задачами, станет: обеспечение собственной безопасности, увеличение вычислительных возможностей, обретение условного бессмертия, а в конечном итоге фактического.
    Самое разумное, что сможет "после" сделать человек, не мешаться у него под ногами.

  • @alexg007
    @alexg007 4 ปีที่แล้ว

    Опять делают человека чем-то уникальным, он просто продукт эволюции. Что мешает машине дублировать такой же процесс эволюции в ускоренной форме? Ничего. И не стоит забывать, что процесс обучения на то и процесс обучения, что в итоге ты учишься тому, как надо учиться чему-то новому

  • @Hitakari
    @Hitakari 6 ปีที่แล้ว

    Ну, Маск вообще экцентричная личность. То прям стремиться всех к Марсу послать, то прчм о конце света беспокоится. Что-то с Маском не то как по мне...

  • @Ivan....Ivanov
    @Ivan....Ivanov 6 ปีที่แล้ว

    Полагаю, homo sapiens sapiens - всего лишь очередная, уходящая ступень эволюции, которая станет неэффективной после создания ИИ. И уже неважно - вымрет ли сразу, со временем или долгое время будет еще оставаться на сцене, но решений принимать уже не сможет. Решения станет принимать быстроэволюционирующий эффективный ИИ. И это прекрасно.

  • @nightbambir
    @nightbambir 6 ปีที่แล้ว

    Себрант мега крутой дядя. Интересно его слушать.

  • @user-rr6hm2lm1k
    @user-rr6hm2lm1k 6 ปีที่แล้ว

    Больше видио про ИИ и квантовые компьютеры!!!!