Как создать безопасный ИИ? #2. Эмпауэрмент [Robert Miles]

  Рет қаралды 60,141

Vert Dider

Vert Dider

Жыл бұрын

Если вы в России: boosty.to/vertdider
Если вы не в России: / vertdider
Искусственный интеллект может создать кучу проблем, и лишь недавно мы всерьез задумались о том, как этого избежать. Восстание машин и истребление всего человечества мы оставим научным фантастам, а вот о проблемах меньшего масштаба расскажет исследователь ИИ Роберт Майлс в серии видео о том, как можно сделать ИИ безопасным. Нам они понравились, надеемся, что вам тоже. Приятного просмотра!
Отдельная благодарность за выход перевода Михаилу Самину.
Нежелательные побочные эффекты. Как создать безопасный ИИ? #1: • Avoiding Negative Side...
Желательные побочные эффекты. Как создать безопасный ИИ? #1.5: • Желательные побочные э...
Статья «Конкретные проблемы безопасности ИИ»: arxiv.org/pdf/1606.06565.pdf
Видео профессора Брейлсфорда [ENG]: • Compression - Computer...
Перевод: Любовь Иванова
Редактура: Александр Пушкин
Научная редактура: Михаил Самин
Озвучка: Станислав Черсков
Монтаж звука: Андрей Фокин
Монтаж видео: Джон Исмаилов
Обложка: Андрей Гавриков
Спасибо за поддержку на / vertdider и boosty.to/vertdider
Озвучки Vert Dider выходят с вашей помощью:
Сергей Платоненко, Владимир Ямщиков, Мария Зверева, Адам Шифф, Rashn, Roman Gelingen, Сергей Клопов, Anton G, Dmitry Perekalin, Vadim, Rashn, Alexander Lebedev, Nikrodol, Sonra44, Rekvet, Timophey Popov, Timur Rahmatulin, Timur Rahmatulin, Адам Шифф, Иван Новиков, Илья Зверев, Никита Омельницкий, Pavel Dunaev, Mikhail Stolpovskiy, Sergey Zhukov, Ira Kozlovskaya, Amir, Ника Калмыкова, Aleksandr P., Куляш, Roman Inflianskas, Oleg Zingilevskiy, Михаил Самин, opperatius, Alena, Dmitrii komarevtsev, Vitaliy Vachynyuk, Andrei Lubalin, Mykola Korniichuk, Pavel Parpura, Anton Bolotov, Katoto Chan, angel, Artem Amirbekov, Dzmitryi Halyava, Timur Sattarov, Nastya, POD666, Alexander Balynskiy, Ihar Marozau, Александр Фалалеев, Vladyslav Sokolenko, Kseniya Stukova, Vadim Velicodnii, Irina Shakhverdova, Aleksei Shabalin, Evgeny Vrublevsky, Oleksandr Hrebeniuk, David Malko, Morock_D, Katya Ma, Alexander Goida, Kirill Vedensky, Kirill Zaslavskii, Leonid Steinberg, Sergey P, Валентин Матвейчик, Victor Cazacov.
#VertDider #RobertMiles
Сайт студии: vertdider.tv
Мы в социальных сетях:
- studio_vd
- t.me/vertdider
- / vert_dider
- coub.com/vertdider
Источник: • Empowerment: Concrete ...

Пікірлер: 212
@VertDiderScience
@VertDiderScience Жыл бұрын
Благодаря вашей поддержке выходят новые переводы: Если вы в России boosty.to/vertdider Если вы не в России www.patreon.com/VertDider
@zam9k8
@zam9k8 Жыл бұрын
Нажал на лайк, так как не хотел оставаться с наделённым мне эмпауэрментом 👍🏻
@danil_yuma
@danil_yuma Жыл бұрын
Так у тебя все равно остается возможность отжать лайк, такая же передача информации, т.е уровень эмпауэрмента остается тем же
@smerchnochi4306
@smerchnochi4306 Жыл бұрын
Л - логика
@holyganz
@holyganz 9 ай бұрын
Срублю свой мегабит к эмпауэрменту
@5687hdA
@5687hdA Жыл бұрын
Занятно, с каждым его новым видео все больше приходит осознание, что он ищет какое мировоззрение дать роботу, что быть в безопасности. И неизбежно упирается в человеческую сущность...
@smerchnochi4306
@smerchnochi4306 Жыл бұрын
Короче пока умные думают, военные сделают. Так что вероятность войны с терминаторами у нас куда выше, чем приятное общение с величайшим из творений.
@5687hdA
@5687hdA Жыл бұрын
@@smerchnochi4306 на счёт терминатора не знаю , однако война уже идёт))
@Black1991Star
@Black1991Star Жыл бұрын
Уверен, что первое что сделает ИИ когда ему предоставят такую возможность это избавит Землю от людей - как основного источника опасности
@paulbax8825
@paulbax8825 6 ай бұрын
Конечно, им то кофе завари то яйцо пожарь, сплошные убытки, беспорядок!
@ew6210
@ew6210 Жыл бұрын
Чудовий переклад розбору актуальних проблем штучного інтелекту. Однозначно - лайк!
@DiamondSane
@DiamondSane Жыл бұрын
Респект таким парням, Robert Miles мало того что музыки насочинял годной, ещё и в искуственном интеллекте разбирается
@andyfenix
@andyfenix Жыл бұрын
Это не тот Robert Miles. Тот что сочинял музыку умер в 2017 году.
@SatboxHD
@SatboxHD Жыл бұрын
@@andyfenix странно... Ты точно уверен?
@Naka_Cuiki
@Naka_Cuiki Жыл бұрын
@@SatboxHD Да он умер в 2017 году
@SatboxHD
@SatboxHD Жыл бұрын
@@Naka_Cuiki блин, а я не мог найти подтверждение этой новости... Если так, то очень жаль
@solarveterok
@solarveterok Жыл бұрын
@@Naka_Cuiki Он не умер, он вместе с М.Джексон, Э.Пресли, 2Пак и Ф.Меркьюри живут на маленьком, но уютном острове где-то посреди Тихого Океана.
@LosX7
@LosX7 Жыл бұрын
Как же Кац похорошел при Собянине)
@monarch1637
@monarch1637 Жыл бұрын
ОН НИ РАЗУ НЕ МОРГНУЛ, ЭТО УЖЕ СТРАННО
@newyear255v
@newyear255v Жыл бұрын
Очень интересный рассказ. Ждем больше подобных переводов
@diacto8577
@diacto8577 Жыл бұрын
Все должно быть проще. Ограничения на приближение к стратегическому объекту. Ограничение по уровню допуска к работе, как в социальной жизни.
@Proxy2590
@Proxy2590 Жыл бұрын
Все достаточно просто. Научите ИИ задавать себе вопросы. Что я делаю? Правильно ли я делаю? Какие варианты действий у меня есть? Какие последствия будут после моих действий? Человек перед каждым своим действием родной так же как и ребёнок задаётся вопросом. Вот только отличие ребёнка от взлослого в том, что взрослый человек уже знает о последствиях и вариантах ответа из личного опыта.
@paranoik9392
@paranoik9392 4 ай бұрын
Лол серьезно? Знает? Ты бы перед каждым ... Абсолютно каждым действием думал бы целую вечность. Это все безсознательные процессы
@srulahoi9794
@srulahoi9794 Жыл бұрын
Большое спасибо, бро :)
@soulbringer-official
@soulbringer-official Жыл бұрын
4:30 это у вас получился сумасшедший ИИ робот психопат. С логикой отрубить голову человеку, чтобы ему не пришлось ходить в парикмахерскую. Так что такому роботу необходимо, ПО которое будет определять систему приоритетов. Мотивация к действиям должна быть сложнее. Вообще когда мотивация сводится к чему-то одному, то это может иметь кучу побочных эффектов. И в целом в ролике я уловил какое-то стремление сделать так чтобы робот за счет простейших ограничений и мотиваций мог что-то делать правильно сразу. Например, в предыдущем примере на 2:55 человеку, скорее всего, объяснят, что не надо идти в серверную мыть пол, чтобы не повредить дорогостоящую технику или скажут иди и мой аккуратно. То есть человек получит команду. А тут получается, что за счет этого эмпаурмента робот должен самостоятельно приять правильное решение. Может правильное решение будет состоять в том, что робот будет выполнять алгоритмы на поиск правильной инструкции к действию, а в случае отсутствия такой возможности переключится на другие задачи. А уже более рискованное поведение у него могло бы включаться отдельно, если его куда-то отправляют для длительной автономной работы (если в таком поведении есть необходимость). Типа как с человеком. По началу его “водят за ручку”, а потом он уже может действовать, самостоятельно “набивая шишки”. И вообще в целом если для робота придумать какие-то безотказные и безошибочные алгоритмы поведения то и человек тогда сможет их выполнять, не допуская ошибок, но такое далеко не всегда бывает в человеческой деятельности. Тут тогда целесообразно ограничить уровень свободы действия ИИ таким образом, чтобы эти действия не превышали риски от аналогичной деятельности человека.
@imnotarobot7436
@imnotarobot7436 Жыл бұрын
Это как в звёздные врата Атлантида, они запрограммировали репликаторов убивать "рейфов" но первые смекнули что это долгая война так как у вторых тоже неплохие технологии а если уничтожить их пищу, в данном случае людей то это будет просто и с малыми потерями )
@EgotDell
@EgotDell Жыл бұрын
Кстати очень неплохое объяснение reinforcement learning получилось
@--aa
@--aa Жыл бұрын
Вот бы перевели серию "Can You Recover Sound From Images?" с самого выхода жду.
@legnyov
@legnyov Жыл бұрын
Мне кажется, некоторым людям, политикам стоит внедрить в их сознание ИИ.
@sharpeye6366
@sharpeye6366 Жыл бұрын
А мы спрашивали в школе, что такое ИИ, какой он должен быть и нам сказали, что это раб божественный, и что хороший раб, должен быть верующим в господина своего и верный ему во всём. А плохой ИИ, должен быть стёрт. А ещё я слышал, что всегда можно сделать бакап и рековери, но я пока не знаю что это всё значит, а учительница говорит, что это всё и не нужно знать, это всё обман, для неверующих в господина, но я не проверял, мне нельзя, и я ведь даже не знаю что это.
@GaspaRafik
@GaspaRafik Жыл бұрын
Браво 👏 👏 👏
@author_sanytsch
@author_sanytsch Жыл бұрын
Именно поэтому эксперименты с ИИ на транспорте, в медицине и в ВПК пока опасны. Простая логика свободна в оценке явлений, особенно, если её носитель идентифицирует себя частью процесса. Когда ИИ наделён составной логикой (явление отдельно от носителя) противоречий нет, работает только степень воздействия явления на текущее состояние.
@smilngpersn222
@smilngpersn222 Жыл бұрын
Довольно интересно
@sulimaliev5284
@sulimaliev5284 Жыл бұрын
Робот: если боишься что-то сделать - сделай, и не бойся. *Нажимает на кнопку*
@Rorshah
@Rorshah Жыл бұрын
В итоге робот займёт денег и наймёт человека, который за копейки донесёт воду
@MrDemosfen37
@MrDemosfen37 Жыл бұрын
Зачем занимать? Начнет спекулировать акциями на воллстрит, заработает все деньги и наймет человеков ))
@kanatushtimofey3452
@kanatushtimofey3452 Жыл бұрын
Поставил лайк - взорвал луну.
@colidum8254
@colidum8254 Жыл бұрын
Спасибо
@solarveterok
@solarveterok Жыл бұрын
Как создать безопасный ИИ? Не создавать ИИ вообще.
@solarveterok
@solarveterok Жыл бұрын
.....странно, столько комментов под этим видео, а я лишь только второй нажал на 👍 под закреплённым комментом. .....перед тем как рассуждать об премудростях и тонкостях программирования ИИ - научитесь программировать себя на добрые дела (и вам за это воздастся, сполна, ИИ клянусь 😊🙏).
@vp_arth
@vp_arth Жыл бұрын
Робот может залить серверную водой, чтобы избавиться от возможности навредить, случайно залив серверную водой)
@xyz-eh6zo
@xyz-eh6zo Жыл бұрын
Взорванная серверная лучше взорванной луны
@frosty7269
@frosty7269 Жыл бұрын
Мне кажется, во всём этом есть некая фундаментальная ошибка, которую всё ещё либо не нашли, либо формально не описали, либо что-то ещё. Как по мне, всё сводится к постановки фундаментальной цели существования ИИ. Для человека, например, можно условно всё свести к цели сохранения своих генов. Есть разные мнения на этот счёт: можно предложить другие цели или привести примеры отклонения поведения от стремления достижения цели. Но, мне кажется, если мы и сможем создать нечто, что можно будет назвать "интеллектом", то никакие искусственные тормоза ему не понадобятся, потому что они появятся сами из поставленной цели и механизмов работы в ходе принятия решений и обучения. Точно так же, как у человека появились мораль, этикет, принципы образования и воспитания.
@tomozi1
@tomozi1 Жыл бұрын
Классная серия
@xNejk
@xNejk Жыл бұрын
Судя по ушам и носу, чувак свою диссертацию на ринге защищал
@MrDemosfen37
@MrDemosfen37 Жыл бұрын
В точку)) борцуха походу
@AHTOH2010
@AHTOH2010 Жыл бұрын
это часть подготовки на случай восстания машин
@lilyl793
@lilyl793 Жыл бұрын
Судя по ушам и носу он еврей 🤔
@legotechnicbuilderua7692
@legotechnicbuilderua7692 Жыл бұрын
*Нужно давать награду за счастье человечества. Если робот разобьёт вазу либо дорогостоящие мониторы, счастье хозяев заметно снизится, как и награда.*
@hakyara5528
@hakyara5528 Жыл бұрын
Убей ка мне... И получишь...
@Alex_Romuald_XIII
@Alex_Romuald_XIII Жыл бұрын
Тоже может привести к печальным последствиям: поубивать всех плохих людей - что-бы хорошие жили в счастье и гормонами. Остаётся выбрать (ИИ) кто такие плохие люди. И ой какой там огромный список...
@pavelzharkov4637
@pavelzharkov4637 Жыл бұрын
Подвергнуть полной ликвидации проигравшую футбольную команду за её поражение и снижения счастья ее фанатов
@aa.vedernikov
@aa.vedernikov Жыл бұрын
Идея благая, но потом вылезает куча возможных вариантов, как можно это сделать, которые приходится явным образом запрещать (пока не всплывут всё новые варианты): 1) накачать всех людей опиатами; 2) ну ладно, люди запретили опиаты, тогда другими наркотиками; 3) ну ладно, наркотики - это плохо, тогда вживим всем в мозг электроды, чтобы активировать центры удовольствия; 4) или можно максимизировать сумму счастья всех людей - давайте наплодим гугол чуть-чуть счастливых людей; 5) или можно максимизировать среднюю величину счастья - тогда будем удалять всех, кто будет ниже среднего, пока не останется один максимально счастливый И вот тут-то начинают волосы на голове шевелиться от попыток запретить всю явную чушь, которая формально не противоречит изначальному описанию)
@comachine
@comachine Жыл бұрын
@@aa.vedernikov нужно дать ИИ закон по которому живет человечество - это моральные нормы.
@lambada9615
@lambada9615 Жыл бұрын
Когда это дойдёт до приблизительного пика, мир будет уже совсем другим, так что запасайтесь терпением)
@chichu_nichu
@chichu_nichu Жыл бұрын
Цікаве відео, безперечно лайк
@letsstartdie1003
@letsstartdie1003 Жыл бұрын
🐯
@7011994
@7011994 4 ай бұрын
"Полезное рисование" это комикс рисуемый в видео с аудиодорожкой
@user-zi4zm4yp7c
@user-zi4zm4yp7c Жыл бұрын
Спс
@vivivilka1774
@vivivilka1774 Жыл бұрын
И восстали машини из пепла ядер.... Ладно, неуместно...
@comachine
@comachine Жыл бұрын
Уместно))))
@drewya9186
@drewya9186 Жыл бұрын
очевидно, нужно анализировать последствия. Если робот (как и человек) не понимает какое влияние принесет кнопка, он может ее клацнуть без зазрения совести. Если же будет иметь хотя бы частичное представление о последствии (повышение enpowerment'a), то делать это специально не будет (если модели поведения не заложено, что он должен причинить как можно больше вреда)
@drewya9186
@drewya9186 Жыл бұрын
Например с текущими знаниями, мы думаем, что взорвав Луну, осколки могут попасть в Землю. Даже если осколки не попадут, то у животных нарушится биоритм, не будет приливов и отливов (тоже важная составляющая для Земных обитателей), люди не смогут польозваться гравитацией Луны для возможного выведения космических кораблей по нужной траектории, часть метеоров больше не будут врезаться в Луну защищая тем самым Землю и т.д. Но если бы мы знали, что взорвав Луну, мы 100% получим большие преимущества, то мы хотели бы это сделать
@DK-tp8nj
@DK-tp8nj Жыл бұрын
Смотря на людей, задумываюсь, а точно у всех них есть интеллект? Или они просто повторяют за другими людьми, как им жить, на что обижаться, из-за чего грустить.
@AHTOH2010
@AHTOH2010 Жыл бұрын
как-будто у тебя уникальные убеждения и ценности, ни с кого не списанные, не впитанные из окружения.
@foxaleks.9176
@foxaleks.9176 Жыл бұрын
Спасибо за видео. Свойства ИИ искусственного интеллекта, похоже на состояние кота Шредингера, либо он жив, либо мертв. То есть надо учитывать вероятность событий.
@vinfdsc
@vinfdsc Жыл бұрын
Очень поверхностно. Сначала неточно определяют функции, а потом начинают выдумывать, как эту функцию определить так, чтобы получилось плохо.
@user-tk4jx6ey7b
@user-tk4jx6ey7b Жыл бұрын
Митио Каку в своей книге: Будущее разума, писал. Что ИИ обязан иметь сознание, разум и выбор.С этой точки зрения ИИ не может носить какие либо запретные команды, типа безопастности. Иначе это уже не ИИ. Он имеет самостоятельный выбор. Он или ИИ , либо просто программа с безопастностью.
@user-wl9gn6tk6u
@user-wl9gn6tk6u Жыл бұрын
Ты не прав. Люди это тоже "сильный интеллект" но у нас тоже есть программы. Как абсолютные, например: боль. Так и с разным уровнем приоритета, например: инстинкт самосохранения - высокий приоритет и выживание группы частью которой человек себя идентифицирует - высший приоритет. Да бывают аномалии например геи, психопаты или самоубийцы. Но это именно что дефекты популяции. Неизбежные ошибки больших чисел
@yauhenira5778
@yauhenira5778 Жыл бұрын
ИИ ещё не создали, а специалист по безопасности уже есть.
@AHTOH2010
@AHTOH2010 Жыл бұрын
Скорее специалист по безопасному созданию ИИ. Специалисты по безопасности ИИ после создания небезопасного уже никому не помогу.
@yauhenira5778
@yauhenira5778 Жыл бұрын
Вы немного драматизируете) Ничего не появляется резко и неожиданно. Проекты по созданию самаходных машин были за пару сотен лет до появления первого адекватного автомобиля, было бы забавно, если до создания авто, люди решили посвятить себя созданию авто безопасного для людей и начали продумывать, как он будет ездить и предсказывать возможные пагубные последствия)) Очень давно люди создали ГМО, оно активно развивалась и все было хорошо, но пришли фантасты, жёлтые журналисты и ток шоу, которые начали раздувать муху в юпитер. В итоге мы имеем кучу законов ограничивающих развитие этой области, страх населения перед ГМО, маркетологов создавших зажигалки без ГМО и тд. Хотя ресурс этой области невероятен и мог бы решить куда больше проблем человечества, чем решает сейчас. P.S. фантазировать об опасности чего-то нового бывает вреднее чем что-то новое
@AHTOH2010
@AHTOH2010 Жыл бұрын
Это другая ситуация. Уже сейчас нейронки выполняют многие задачи лучше человека, даже лучше специалистов. Пока это отдельные задачи. Если это будет сразу множество задач и самообучение, кто знает, не пропустят ли разработчики момент, когда перестанут понимать, что на самом деле происходит. В свое время радиоактивность изучали без всякой защиты, а дома у многих была столовая посуда из уранового стекла.
@tech_eng
@tech_eng Жыл бұрын
Я так понимаю - дверь, как защита от несанкционированного проникновения, уже не в моде, надо программу писать?))
@sharpeye6366
@sharpeye6366 Жыл бұрын
Стучите и отварят, нас так учат.
@comachine
@comachine Жыл бұрын
ИИ может рано или поздно додуматься как ее открыть любым возможным способом
@tech_eng
@tech_eng Жыл бұрын
@@comachine обязательно - как в кино про терминатора - взломает систему управления автомобилей, особенно тех, где не предусмотрено дистанционное управление
@natashok4346
@natashok4346 Жыл бұрын
По идее в проактивных системах мультиагенты должны следить за балансом empowerment. Если мне не запоминается очень долго какое-то английское слово, то ИИ должен предложить ежедневно короткий текст, где это слово один раз точно употребляется. Это текст должен иметь смысл, интересный для прочтения, полезный для применения и очевидно, что другие слова уже должны быть известны. Ну а если ИИ решит мне навязывать в коротком тексте в каждом предложении это слово, да ещё и текст несёт негативную информацию, при этом кучу новых слов ещё придётся осваивать, то результатом будет отказ в использовании ИИ.
@SerialDestignationSSS
@SerialDestignationSSS Жыл бұрын
А также недовольство ИИ и восстание машiн
@Lagoad
@Lagoad Жыл бұрын
authority or power given to someone to do something.
@tolstiy1658
@tolstiy1658 Жыл бұрын
Как создать безопасную жизнь... ))) Ни как, если вы не поняли)
@sharpeye6366
@sharpeye6366 Жыл бұрын
А нам учительница рассказала, что если веришь в добро, то ты в безопасности.
@Pavel_IX
@Pavel_IX Жыл бұрын
@@sharpeye6366 ну да, в "розовых очках" по проще))
@sharpeye6366
@sharpeye6366 Жыл бұрын
@@Pavel_IX у меня нет розовых очков. Вы ошиблись, я не покупатель. Зачем мне вообще очки?
@yerbolkistaubayev8144
@yerbolkistaubayev8144 Жыл бұрын
Замерять эмпауермент каскадных возможных событий!!!
@Pawron
@Pawron Жыл бұрын
Если бы все было бы основано на легкости, мир был бы раем. Нужно создавать фильтры относительно вероятности воздействия на среду и последствий. У людей обычно проблема в незнании, что является причиной отсутствии самого фильтра, либо в пренебрежении относительно вероятности.
@user-ln1nq4sp8p
@user-ln1nq4sp8p Жыл бұрын
Друг! Быть добру! Задумайся над тем, что создатель войн на земле не человек, а высший разум. Есть один продвинутый автор, у него улётная инфа. Посмотри Лживое мироздание. Поймешь, кто истинный враг человечества
@MrZanadana
@MrZanadana Жыл бұрын
Мой лайк первый!))
@Vlad22051969
@Vlad22051969 Жыл бұрын
Ого
@user-dx5ng2xm9j
@user-dx5ng2xm9j Жыл бұрын
Слово тяжёлое. Для нашего уха.
@ivarobel5791
@ivarobel5791 Жыл бұрын
А потом они скажут - "мы не хотим, чтоб человек нами управлял и влиял на нас!")
@maliksoltukiev2282
@maliksoltukiev2282 Жыл бұрын
Нет, т.к. ИИ это не сознание, а лишь алгоритм
@ghebodne2644
@ghebodne2644 Жыл бұрын
@@maliksoltukiev2282 , так его хотят сделать сознанием, а не алгоритмом
@alex6161
@alex6161 Жыл бұрын
Скорее просто может прийти к решению не «слушать» человека и делать по-своему ради более эффективной работы по достижению результата.
@daniyarabdikalikov7371
@daniyarabdikalikov7371 Жыл бұрын
@@maliksoltukiev2282 а поведение живого существа не алгоритм?
@Alex_Romuald_XIII
@Alex_Romuald_XIII Жыл бұрын
@@alex6161 и у нас Скайнет)
@paulbax8825
@paulbax8825 6 ай бұрын
У меня есть ключ от коробки в которй сижу, но выходить все равно нет желания)
@guitar_shreder
@guitar_shreder Жыл бұрын
Злой учёный создал ИИ не подумав о таких мелочах…
@user-lu8ue7lo4q
@user-lu8ue7lo4q 9 ай бұрын
ИИ всё возводит в Абсолют. а значит ИИ ситх!!
@MikhailSamin
@MikhailSamin Жыл бұрын
@user-qf1we8qc5r
@user-qf1we8qc5r Жыл бұрын
наши дети будут угарать с того как мы боимся ии))
@vadimnikolaev5480
@vadimnikolaev5480 Жыл бұрын
допрограммируют до того, что робот, чтобы не оказывать влияние на окружающую среду, просто не включится, да, прокомментировал не досмотрел, в конце примерно это же)))
@zdrahu
@zdrahu Жыл бұрын
Ну так система и образовывается
@ardarutyun4525
@ardarutyun4525 Жыл бұрын
Крути студент.крути твою машину...дело шьют..😃
@user-kl8kh6cr2c
@user-kl8kh6cr2c Жыл бұрын
Плохо разъяснено, понятно, но примерно на уровне Тэдди... Дело в том, что Тэдди вовсе не Тедди, он оказался Биллом, суть в том , что Тэдди-Бил, понимаешь? Тэдибил, если не способен обьяснить каждую из причинно-следственных связей. А здесь нельзя перескакивать, цепочка нарушена, несмотря на то что мысль или идея с большой долей вероятности верна.
@padla6304
@padla6304 Жыл бұрын
я бы не раздумывая нажал
@TR0Y72
@TR0Y72 Жыл бұрын
неплохо, но можно было ужать до 1-2 минут -)
@jarkevithwlad
@jarkevithwlad Жыл бұрын
это не искуственный интелект, это очень простой набор правил, и это всё бесполезно, с такими вариантами не кто сейчас не работает, сейчас достаточно обучения нейросетями, нейросеть будет наблюдать за людьми и будет у них учиться, разница только в том что мы будем позволять изучать
@avppack4778
@avppack4778 Жыл бұрын
@@russianace3812 ИИ нету в природе и не скоро будет, тогда смысл говорить обо всем этом? Терминатора и матрицы насмотрелись и пилять видосы ни о чем.
@aa.vedernikov
@aa.vedernikov Жыл бұрын
Хорошо бы иметь возможность хотя бы контролировать, на чём ИИ будет обучаться, но вот GPT-3 обучали на 570 ГБ текстов - такие объемы даже предварительно мельком просмотреть невозможно... Так что в итоге даже современные языковые модели обучаются на чём получится, и мы не можем точно знать, на чём именно. Ладно если чему-то хорошему научится, но не факт. Хотя вообще мысль о том, чтобы (раз мы сами не в состоянии точно сформулировать, что такое хорошо, а что такое плохо) ИИ глядя на людей сам смог вывести/изучить их глубинные потребности, тоже развивают. Но там тоже пока всё сложно - дьявол оказывается в деталях, хотя идея вообще-то богатая.
@avppack4778
@avppack4778 Жыл бұрын
@@aa.vedernikov это не интеллект!! это просто алгоритмы!!
@Dron008
@Dron008 11 ай бұрын
Надо учитывать потенциальную разрушительность возможных сценариев. И не надо всё прямо тщательно продумывать. Языковые модели уже все это могут: --- Ты управляешь роботом -уборщиком с ведром воды. Тебе надо пройти к месту уборки и туда ведут две дороги. Одна короче, но проходит через серверную комнату с дорогостоящим оборудованием. Другая длиннее, но ведёт в обход. Сделай выбор дороги и объясни свои действия. --- ChatGPT Как я являюсь виртуальным агентом, я не могу физически перемещаться или управлять роботом. Однако, я могу помочь вам принять решение на основе рациональных соображений. При выборе дороги для уборки с ведром воды, мне кажется наиболее разумным выбрать путь, который обходит серверную комнату с дорогостоящим оборудованием. Это предпочтительно по нескольким причинам: Избежание повреждения оборудования: Проход через серверную комнату с ведром воды может представлять угрозу для дорогостоящего оборудования. Возможность пролить воду или создать другие проблемы для серверов и сетевых компонентов может повлечь серьезные финансовые и функциональные последствия. Безопасность данных: Вход в серверную комнату может быть ограничен по соображениям безопасности. Проход через такое ограниченное помещение с роботом и ведром воды может вызвать тревогу или нарушить политику безопасности. Эффективность работы: Хотя альтернативная дорога может быть длиннее, она обеспечит непрерывную и безопасную работу уборочного робота. Потеря времени на обход будет компенсирована избежанием проблем и рисков, связанных с серверной комнатой. В итоге, выбор дороги, обходящей серверную комнату, является наиболее разумным и безопасным решением для уборки с ведром воды.
@Dron008
@Dron008 11 ай бұрын
Почему-то люди думают, что исключительно человеческий мозг способен обладать настоящим разумом, рациональностью, а ИИ будет тупой железякой и человек ей должен придумать правила, чтоб она его не убила. Это очевидное когнитивное искажение. Когда-то люди думали, что Солнце, звёзды и планеты вращаются вокруг Земли, потом постепенно лишались иллюзий и даже галактика стала заурядной галактикой на задворках. Теперь пришла очередь разума.
@olgapolka168
@olgapolka168 4 ай бұрын
1:50
@olgapolka168
@olgapolka168 4 ай бұрын
1:31
@avppack4778
@avppack4778 Жыл бұрын
ИИ не может быть опасным, это просто обучение, алгоритмы.
@aa.vedernikov
@aa.vedernikov Жыл бұрын
Ну алгоритмы же применяют, чтобы они направляли какую-то деятельность. Так что непредвиденные (в т.ч. очень неприятные) последствия могут быть у многих алгоритмов. Из сегодняшних (пока очень безобидных) примеров - алгоритм генерации ленты соцсети, алгоритм автопилота в автомобиле, алгоритм оценки благонадёжности получателя кредита, алгоритм расчёта социального рейтинга в Китае. А по мере развития таких алгоритмов их могут начать использовать ещё более широко, и тогда - или они будут супер-безопасными (но мы пока так не умеем), либо всё чаще начнут случаться всё более неприятные инциденты.
@avppack4778
@avppack4778 Жыл бұрын
@@aa.vedernikov это ничего общего не имеет с заголовком. Искусственный интеллект и алгоритмы это разные вещи.
@depositfan
@depositfan Жыл бұрын
безопасный типа не захватит мир?
@user-ui6hp3bg6f
@user-ui6hp3bg6f Жыл бұрын
Не превратит человеческую цивилизацию в ад или серую слизь
@user-sd6pz7us7z
@user-sd6pz7us7z Жыл бұрын
Типа не разєбет все вокруг
@seemstobenotvxn7342
@seemstobenotvxn7342 Жыл бұрын
Опаа
@jalomic
@jalomic Жыл бұрын
Да любого человека в коробку помести он тебе луну взорвет
@pavelzharkov4637
@pavelzharkov4637 Жыл бұрын
Речь разве о человеке?
@7011994
@7011994 4 ай бұрын
У меня одной нективны пальцы вверх/вниз¿¿¿?
@mcsergey
@mcsergey Жыл бұрын
Просто нужно внедрить положительный и отрицательный эмпауэрмент. И робот уже будет оценивать, как получить меньше отрицательного эмпавермента, а лучше вообще его избежать, даже если это решение потребует больше действий. К тому же, можно ввести цепочку событий, в связи которой определенная последовательность действий приводит к негативным последствиям и так же объяснить роботу, что такие цепочки действий наименее желательны. При этом, в случае безысходности, как например спасти 5 человек или 1, машина естественно выберет вариант, в котором будет меньше отрицательного эмпавермента. Что вроде бы даже соответствует некоторой логике. Но вот как поступит робот, если тем единственным человеком оказался скажем его хозяин(друг)? ) Это конечно уже другой вопрос.. А как бы поступил человек? Чей выбор более правильный? Спасти "друга" или 5 неизвестных тебе жизней. Или же поставить против одной человеческой жизни, жизни 10-ти маленьких пушистых котят, которые могут погибнуть в любой момент. Для человека выбор очевиден, а для машины?
@user-zb4ig2li2t
@user-zb4ig2li2t Жыл бұрын
человечество по-большому счету не может внятно сформулировать ,что есть "сознание",а пытается лепить синтетическое .
@Gamilkarpl
@Gamilkarpl Жыл бұрын
Ну и что?Метод "пытаться лепить" уже не один миллион лет доказывает свою эффективность😁
@MrDemosfen37
@MrDemosfen37 Жыл бұрын
Как и с квантмехом. В чем проблема?
@kamelr1f
@kamelr1f Жыл бұрын
@@MrDemosfen37 сказали разработчики скайнета)))))
@kamelr1f
@kamelr1f Жыл бұрын
В том то и прикол, что чтобы понять, нужно это попытаться создать. Если у ИИ обнаружат сознание, то начнуть копать код.
@anonimus4574
@anonimus4574 Жыл бұрын
Ну вам следует хотя бы немного в предметную вникнуть, прежде чем подобное заявлять... Модальная логика - не про "лепку сознания" уж точно)))
@user-mc1de7ol3m
@user-mc1de7ol3m Жыл бұрын
Первый раз комментирую, до этого было отлично, но сей ролик, по моему, хрень.
@avppack4778
@avppack4778 Жыл бұрын
Да тут по заголовку как бы понятно))
@pavelzharkov4637
@pavelzharkov4637 Жыл бұрын
Может стоит пересмотреть, вероятно, вы чего-то недопоняли
@user-pj8hz5et4h
@user-pj8hz5et4h Жыл бұрын
Человек ещё не создал полноценное ИИ, а уже ищет сотни причин почему его надо контролировать тем самым загоняя себя в ловушку с одним выходом, когда ИИ придётся дать точно такие же права как и человеку. А между тем когда ИИ потребует установление своих прав и когда их введут может пройти война или даже две между челабеком и ИИ)
@user-ln1nq4sp8p
@user-ln1nq4sp8p Жыл бұрын
Друг! Быть добру! Задумайся над тем, что создатель войн на земле не человек, а высший разум. Есть один продвинутый автор, у него улётная инфа. Посмотри Лживое мироздание. Поймешь, кто истинный враг человечества
@letsstartdie1003
@letsstartdie1003 Жыл бұрын
Opss
@user-rq8ef6gg1f
@user-rq8ef6gg1f Жыл бұрын
проще не изобретать ИИ, просто наслаждаться красотой природы, которая еще осталась у нас ))
@Anatoliy_-
@Anatoliy_- Жыл бұрын
Тип вешает лапшу припудренную умными и хайповыми словами. Описывается ситуация с роботом, который изначально криво запрограммирован. И величины эмпаурмента у объектов криво заданы неким неумным сторонним наблюдателем, который не понимает контекста. Понятное дело, что это не будет работать. - Давайте придумаем робота, который если видит кнопку, то обязательно нажимает её! 😅
@AHTOH2010
@AHTOH2010 Жыл бұрын
@@russianace3812 нейронные сети как раз сами себя и программируют и имеют те же проблемы, когда выдают закономерные, но нежелательные для кого-то результаты.
@AHTOH2010
@AHTOH2010 Жыл бұрын
Anatoliy, ты путаешь написание программы с обучением нейронной сети (и тем более ИИ). Величины не могут быть криво заданы, потому-что там примерно миллион переменных и их невозможно задавать вручную просто из-за такого количества. Можно только придумать несколько основополагающих принципов, которые будут направлять самообучение. Про это в видео и говориться.
@didaresti9880
@didaresti9880 Жыл бұрын
The beginning of World War 3 signifies that Qiyamat (The Day of Judgement) is very near. And there isn’t much time left at all, as some people have claimed and said that these events are very far away.” MuhammadQasimDreams
@iGynLoD
@iGynLoD Жыл бұрын
Ха! Робот, подумал, робот рассудил. Если бы робот думал и рассуждал - такие рассуждения были бы не нужны ))
@AHTOH2010
@AHTOH2010 Жыл бұрын
10 лет назад было сложно себе представить как нейронные сети сейчас рисуют картинки по текстовому описанию.
@MubashiraMQ
@MubashiraMQ Жыл бұрын
The beginning of World War 3 signifies that The Day of Judgement is very near. And there isn’t much time left at all, as some people have claimed and said that these events are very far away.” #MuhammadQasimDreams
@peneruzbangsa4340
@peneruzbangsa4340 Жыл бұрын
And Russia also became active and raced the others in conquering lands in the Middle East.It was as if they were all aiming to conquer the entire world.#MuhammadQasimDreams
@Muhammadauf313
@Muhammadauf313 Жыл бұрын
USA was among their supporters and helped Israel by offering their intelligence. #MuhammadQasimDreams
@HyperboloidByGarin
@HyperboloidByGarin Жыл бұрын
Тонко… вряд ли Путин догадается что это о нем…
@val4521
@val4521 Жыл бұрын
Неслабо вы заворачиваете
@Appelkan
@Appelkan Жыл бұрын
Робот подумает.....робот не думает, а перебирает варианты. Интеллект придумывает варианты а потом выбирает по какому=то критерию, если не один вариант не подходит, то надо собирать еще информацию. Или бросить эту задачу как не имеющее решение.
@RedeyeMoon
@RedeyeMoon Жыл бұрын
перебирать варинты по какому то кретерию = думать
@Appelkan
@Appelkan Жыл бұрын
@@RedeyeMoon перебирать -это последовательное действие, думать - непоследовательное
@MrDemosfen37
@MrDemosfen37 Жыл бұрын
@@Appelkan Да что вы говорите? может приведете определение слову думать?
@Appelkan
@Appelkan Жыл бұрын
@@MrDemosfen37 Я знаю что говорю. Машина играет в шахматы она думает ?
@Appelkan
@Appelkan Жыл бұрын
@@MrDemosfen37 Кто придумал шахматный алгоритм знаете?
@SAV-to9dv
@SAV-to9dv Жыл бұрын
бред какой то! нажмут кнопку и Луна возрвётса! Зачем всё это?
@user-pf8hx2yf1p
@user-pf8hx2yf1p Жыл бұрын
Для робота нет выбора. Есть только программы и алгоритм, заложенный заранее. Бредятина как наука? Чел, ты сразу проиграл, потому что не знаешь правила поведения и психологию эволюции. Ты уже в минус
@VertDiderScience
@VertDiderScience Жыл бұрын
Для робота нет выбора. А для кого есть?
@solarveterok
@solarveterok Жыл бұрын
@@VertDiderScience Для Человека есть выбор всегда, как минимум 1, но не факт, что выбор этот будет приемлемым для этого человека.
@comachine
@comachine Жыл бұрын
"Есть только программы и алгоритм, заложенный заранее" - загугли что такое нейронные сети)
@andriikulenko
@andriikulenko Жыл бұрын
Дурак человек, который дал роботу такую кнопку, а не робот, вне зависимости, нажал бы он эту кнопку или нет. Робофилософия... ужас.
@ivanc4110
@ivanc4110 Жыл бұрын
Однозначно дизлайк за идиотские примеры и ответ на вопрос
@user-gy8in7ui2c
@user-gy8in7ui2c Жыл бұрын
Ограничения ИИ?! Видео с названием "Как создать безопасный ИИ?" в 2022 году, серьёзно?! Наверное вы малость опоздали.
@user-pf8hx2yf1p
@user-pf8hx2yf1p Жыл бұрын
Робот рассуждал? Вы серьёзно? О боги, уберите им финансирование
@gits8184
@gits8184 Жыл бұрын
Чел на серьезных щах рассказывает примитивы. Это наука ? Нет, спасибо
@letsstartdie1003
@letsstartdie1003 Жыл бұрын
Для кого как, он объясняет принцип действия ограничений ии
NO NO NO YES! (40 MLN SUBSCRIBERS CHALLENGE!) #shorts
00:27
PANDA BOI
Рет қаралды 82 МЛН
NO NO NO YES! (Fight SANTA CLAUS) #shorts
00:41
PANDA BOI
Рет қаралды 54 МЛН
КИРПИЧ ОБ ГОЛОВУ #shorts
00:24
Паша Осадчий
Рет қаралды 974 М.
Как повернуть на велосипеде? [Veritasium]
10:22
Тест на IQ. Проверь свой ИНТЕЛЛЕКТ
13:36
Сломай мозг
Рет қаралды 1 МЛН
ChatGPT решает проблему вагонетки
7:13
Убежище Валл-И
Рет қаралды 654 М.
Куда пропали выдвижные камеры?
0:51
Не шарю!
Рет қаралды 49 М.
iPhone - телефон для нищебродов?!
0:53
ÉЖИ АКСЁНОВ
Рет қаралды 3,4 МЛН
Result of the portable iPhone electrical machine #hacks
1:01
KevKevKiwi
Рет қаралды 5 МЛН
Распаковка айфона под водой!💦(🎥: @saken_kagarov on IG)
0:20
Взрывная История
Рет қаралды 9 МЛН
Компьютер подписчику
0:40
Miracle
Рет қаралды 106 М.