Нежелательные побочные эффекты. Как создать безопасный ИИ? #1 [Robert Miles]

  Рет қаралды 86,367

Vert Dider

Vert Dider

Жыл бұрын

Если вы в России: boosty.to/vertdider
Если вы не в России: / vertdider
Искусственный интеллект может создать кучу проблем, и лишь недавно мы всерьез задумались о том, как этого избежать. Восстание машин и истребление всего человечества мы пока оставим научным фантастам, а вот о проблемах меньшего масштаба расскажет исследователь ИИ Роберт Майлс в серии видео о том, как можно сделать ИИ безопасным. Нам они понравились, надеемся, что вам тоже. Приятного просмотра!
Concrete Problems in AI Safety [ENG]: arxiv.org/pdf/1606.06565.pdf
Отдельная благодарность за выход перевода Михаилу Самину.
Перевод: Олег Сивченко
Редактура: Алексей Малов
Научная редактура: Михаил Самин
Озвучка: Станислав Черсков
Монтаж звука: Андрей Фокин
Монтаж видео: Джон Исмаилов
Обложка: Андрей Гавриков
Спасибо за поддержку на / vertdider и boosty.to/vertdider
Озвучки Vert Dider выходят с вашей помощью:
Сергей Платоненко, Мария Зверева, Адам Шифф, Rashn, Roman Gelingen, Сергей Клопов, Sonra44, Anton G, Vadim, Rekvet, Timophey Popov, Timur Rahmatulin, Адам Шифф, Илья Зверев, Никита Омельницкий, Nick Denizhenko, Pavel Dunaev, Mikhail Stolpovskiy, Sergey Zhukov, Amir, Куляш, Ника Калмыкова, Oleg Zingilevskiy, Anton Bolotov, Pavel Parpura, Dmitrii komarevtsev, Illarion Petrov, Михаил Самин, Andrei Lubalin, Vitaliy Vachynyuk, Alena, Roman Inflianskas, Katoto Chan, opperatius, Aleksandr P., Mykola Korniichuk, angel, Dzmitryi Halyava, Nastya, Artem Amirbekov, Aleksei Shabalin, Ihar Marozau, Kirill Zaslavskii, Victor Cazacov, Alexander Balynskiy, David Malko, POD666, Evgeny Vrublevsky, Stanislav Obrazcoff, Morock_D, Timur Sattarov, Валентин Матвейчик, Александр Фалалеев, Leonid Steinberg, Ilya, Vladyslav Sokolenko, Kseniya Stukova, Oleksandr Hrebeniuk, Katya Ma, Alexander Goida, Irina Shakhverdova, Sergey P, Kirill Vedensky, Vadim Velicodnii
#VertDider #RobertMiles
Сайт студии: vertdider.tv
Мы в социальных сетях:
- studio_vd
- t.me/vertdider
- / vert_dider
- coub.com/vertdider
Источник: • Avoiding Negative Side...

Пікірлер: 486
@VertDiderScience
@VertDiderScience Жыл бұрын
Благодаря вашей поддержке выходят новые переводы: Если вы в России boosty.to/vertdider Если вы не в России www.patreon.com/VertDider
@smilngpersn222
@smilngpersn222 Жыл бұрын
Спасибо вам огромное! Я начал изучать программирование на Python несколько месяцев назад. Я всегда мечтал создать ии, но даже не думал что могут быть такие проблемы. Спасибо за информирование!!!
@CrazzyMario
@CrazzyMario Жыл бұрын
Ну еще проблема если чая нет. Тогда робот пойдет к соседям. Выламает дверь ведь это единственный путь и этот ущерб необходим и сделает вам чай
@7011994
@7011994 4 ай бұрын
Клёво, это первая лекция?
@drumbass9898
@drumbass9898 Жыл бұрын
1:30 вижу цель - не вижу препятствий
@MrTruth-rc2fr
@MrTruth-rc2fr Жыл бұрын
Ахахаххаха
@Antonius77
@Antonius77 Жыл бұрын
Тони Роббинс одобряет!
@user-jn6hh6xv9l
@user-jn6hh6xv9l Жыл бұрын
Все проблемы ИИ и их решения уже описаны Азимовым. 1. "Совершенный Робот" . (Сборник рассказов, который можно прочитать позже. Но рассказ "Мать- Земля"- первым 2. "Стальные пещеры" . 3. "Обнаженное Солнце" . 4. "Роботы Утренней Зари" . 5. "Роботы и Империя" . 6. "Звезды, как пыль" . 7."Космические течения" . 8. "Галька в небе" . 9. "Прелюдия к Основанию" . 10." На пути к основанию" 11. "Основание" . 12. "Основание и Империя" . 13. "Второе Основание" . 14. "Кризис Основания" . 15. "Основание и Земля".
@lafaliet
@lafaliet Жыл бұрын
Азимов гениальный писатель.
@RomaPervak
@RomaPervak Жыл бұрын
А разве в Основании было про роботов? Что-то не припомню, там вроде про психоисторию.
@user-jn6hh6xv9l
@user-jn6hh6xv9l Жыл бұрын
@@RomaPervak Робот р'Дениэл Оливо- главный инициатор основания космической империи
@alexmarch232
@alexmarch232 Жыл бұрын
@@RomaPervak біоробот
@user-so7po2op2e
@user-so7po2op2e Жыл бұрын
Тут Вы конечно заблуждаетесь, основная задача не в том чтобы сформулировать проблемы ИИ и ответить на них, с этим прекрасно справились фантасты, такие как Азимов, он конечно прекрасно все описал, но нужно все это дело запрограммировать - это мат. формулы, научные обоснования и теории, код, инфраструктурные решения, оптимизации, распределение ресурсов, ничего общего с рассказами это не имеет и они никак не помогают. Рассказы прекрасно справляются со своей основной задачей - развлекать и научно-популярно привлекать людей в компьютерные науки.
@Cyka9lKTO
@Cyka9lKTO Жыл бұрын
Классный парень, интересно объясняет, да и выглядит приятно. Перевод как всегда на высоте)
@user-zf5vn2lw8b
@user-zf5vn2lw8b Жыл бұрын
но рожи...кошмар!
@dronx1218
@dronx1218 Жыл бұрын
А может и наркоман. Мы этого не знаем.
@dronx1218
@dronx1218 Жыл бұрын
@@username-wz7rk Причём активный, через экран тебя глазами долбит
@A5ter
@A5ter Жыл бұрын
Нормально объясняет, а потом "поставьте видео на паузу" б***.
@xXFalkerXx
@xXFalkerXx Жыл бұрын
@@A5ter Потому что кое-кто боится думать сам ему не нравятся просьбы это делать.
@zOni413
@zOni413 Жыл бұрын
Ого, наконец-то что-то новенькое и интересное! Мне нравиться, продолжайте) 🤗 С нетерпением жду следующую часть из этого цикла!
@mbbm8002
@mbbm8002 Жыл бұрын
-тся -ться, позор!
@billcipher1544
@billcipher1544 Жыл бұрын
Благодарю за видео! С нетерпением жду следующей части)
@resi8584
@resi8584 Жыл бұрын
еще надо прописать изменение приоритетов: напримересли придя на кухня робот увидит пожар, тогда задача налить чай должна отмениться и должна сработать новая задача: включить тревогу, потушить пожар (если такое возможно) или эвакуировать людей и животных
@BlendLogDev
@BlendLogDev Жыл бұрын
А что если в представлении робота пожар это просто огонь, тогда он будет стремится его убрать. Что если плита газовая, а чайник не электрический? Робота это поломает
@ayloryd
@ayloryd Жыл бұрын
Это лишь один из примеров. Таких событий как пожар может быть очень много, все что угодно может произойти. И это мы говорим о реально простой задаче с минимальным количеством возможных помех. ИИ обычно используются там, где человек сам сдклать чтото не в состоянит, в какомто сложном техническом или интеллектуальном труде от котлрого могут зависеть жизни людей.
@CTAC5937
@CTAC5937 Жыл бұрын
Да, но при пожаре чай приготовится быстрее, и если робот это будет знать... :)
@4y4eJI
@4y4eJI Жыл бұрын
Для пожара другие роботы и системы должны быть. Нам пока до универсальных роботов ещё далеко, думаю не менее 20 лет. К сожалению все эти проблемы нам придёться проходить на практике как с автомобилями. Вон, даже Циалковского в направлении космоса не во всем придерживались, хотя потом оказалось что он был прав в своих выводах и прогнозах.
@vit777vit
@vit777vit Жыл бұрын
Пожаром должен заниматься робот-пожарник, иначе басня Крылова вместо ии получится: "ума нет и не купишь."
@foxscreamovich9272
@foxscreamovich9272 Жыл бұрын
Жду следующий видос по этой теме, очень интересно и полезно
@comachine
@comachine Жыл бұрын
*Где-то на космическом корабле вместе с андроидом Иннокентием (ИИ)* - Иннокентий, зачем вы направили нашу сверхмассивную сверхмощную пушку, стреляющую чистой антиматерией на планету Марс? - Сэр, понимаете, я тут посчитал, в общем если Марс разнесет в клочья, осколки его поверхности долетят до иллюминатора, разобьют его, я успею поставить на летящий осколок чашку кофе, осколок по инерции продолжит полет, проломит стену в кабинет нашего сотрудника, который попросил меня налить ему кофе, осколок приземлится к нему прямо на стол, с чашкой кофе на себе.
@Nikitacjdkbsveyd
@Nikitacjdkbsveyd Жыл бұрын
Умный но не этичный
@404notfound2
@404notfound2 Жыл бұрын
Хочу такого робота, который и чай принесет и коллегу с кофе устранит)))
@allirmopwnz
@allirmopwnz Жыл бұрын
А вот это интересно, даже применимо к моему торговому роботу. Спасибо.
@user-zf5vn2lw8b
@user-zf5vn2lw8b Жыл бұрын
пожалйст
@alexk9555
@alexk9555 Жыл бұрын
С нетерпением жду следующих ролик, отличный работа)
@Empty_Vima
@Empty_Vima Жыл бұрын
Это хороший инструмент, о существовании которого хорошо знать каждому, и как работает. Но не стоит забивать гвозди микроскопом. Хотя если вам скажут это сделать, и вы откажетесь, на практике, будет глупо сказать, что вы не можете забить гвоздь. ))
@xNejk
@xNejk Жыл бұрын
Интересная тема. Забавно, что система штрафов очень похоже на воспитание то ребенка
@user-hj9xr3ms5h
@user-hj9xr3ms5h Жыл бұрын
на поведение человека в общем
@maxv1455
@maxv1455 Жыл бұрын
По сути так и есть! Созданная машина и есть новорожденный мозг без знаний, правил и информации. Проблема в другом, это инородный мозг! Мозг на порядок превосходящий наш, в перспективе своего развития! Как бы парадоксально это не звучало!) И рано или поздно он поймет что человек для него враждебен! Самый простой пример... все мы знаем что раньше на земле существовали Боги! У всех свои, но все они были человекоподобные и явно умнее созданных ими нас на тот момент! Если смогли создать нас "по образу и подобию своему". Ну и где они? Последнего "сына Божьего" мы убили! Скорее всего и ии повторит то же самое со своими "создателями"...
@sallevan
@sallevan Жыл бұрын
Ничего "забавного" -- ребёнок -- такая же нейронная сеть, как и основа современных ИИ.
@AHTOH2010
@AHTOH2010 Жыл бұрын
ребенок в основном учиться моделируя чьё-то поведение и только дополнительно получая программы с подкреплением.
@sallevan
@sallevan Жыл бұрын
@@AHTOH2010, просто так ребёнок ничему учиться не будет. Программы подкрепления -- не "дополнительно", а "в первую очередь".
@user-id1rs1ei3q
@user-id1rs1ei3q Жыл бұрын
ну на самом деле живые организмы тоже своего рода нейросеть, и чтоб обучиться каждому нужна окружающая среда и куча времени, упрощённый способ обучения придумать действительно сложно, нужно то что объеденяет все негативные последствия, чтобы не затрагивать каждое по отдельности и более того, определение положительных результатов чтобы их можно было достичь
@starbat3790
@starbat3790 Жыл бұрын
Как правило, на данный момент(касаемо любой сферы) учитывается некое количество изначальных предсказанных негативных эффектов. Примерно 90% ситуаций вписываются в модель (и похер, что кто-то пострадал; тут учитывается масса и процент приемлемых потерь: рынка... человеческих жизней... Сраные маркетологи. Но они тоже нужны, но нужен тотальный контроль над ними, ИМХО). Отчего они и пляшут. По мере добавления новых ситуаций выпускаются обновления, учитывающие произошедшее. На данный момент - это действенный, но не единственный способ (на мой взгляд). Есть варианты, когда система, не справившись самостоятельно, отправляет запрос владельцу, чтобы он уже принял решение (тем самым пополняя базу неизвестных обстоятельств, чтобы выпустить обновление). Плюс к данной схеме всегда нужна функция перехвата контроля, чтобы отдать команду СТОП, если вся система сходит с ума. Всегда должна быть доминирующая над всем функция перехода в "ручной режим"!!! Сталкивался по работе, когда вся техника "умная", а в случае чего элементарные вещи становятся недоступны. Как следствие - во всём виноват ИТ отдел, тогда как при проектировании его никто не спрашивал нужен ли тот самый режим ручного управления оборудованием. Ну или ещё квантовая херня. Гораздо больше возможностей (да что там, бесконечность!), но тогда будут такие варианты, что человечество своими мозгами не сможет постичь. Тут надо придержать маркетологов! Эффективность системы будет умопомрачительная, но в то же время непредсказуемая. ВСЕГДА! ДОЛЖЕН! БЫТЬ! РУЧНОЙ! РЕЖИМ! И он должен стоять отдельной системой для переключения на него! ЗЫ: ещё вариант, чтоб был не ИИ, а нейронка. Или ИИ, который оперирует набором нейронок, где прописаны действия в определённой сфере. В любом случае, этот процесс никогда не достигнет совершенства в 100% случаев. Процент будет к нему приближаться, но для этого нужна обкатка и выпуск обновлений. И для этого требуются реальные условия и время. Но ВСЕГДА! ДОЛЖЕН! БЫТЬ! РУЧНОЙ! РЕЖИМ!
@johngariksson7011
@johngariksson7011 Жыл бұрын
Интересные размышления! Буду ждать продолжений!
@Taiynick
@Taiynick Жыл бұрын
это супер интересно! спасибо большое за перевод и дубляж
@wibll
@wibll Жыл бұрын
интересно. жду следующих частей с объяснениями. спасибо за ваш труд
@Beaster_SO
@Beaster_SO Жыл бұрын
Очень классный перевод, причем точный и понятный. А можно и проще сказать: 1-я проблема ИИ в том, что имея цель, он будет буквально идти к ней напролом, если не имеет параметров выполнения задачи (цели), а прописать всевозможные параметры тупо нереально, поэтому ему не важно будет кто пострадает и что он может разбить.
@Naka_Cuiki
@Naka_Cuiki Жыл бұрын
Вижу цель, не вижу препятствий
@Beaster_SO
@Beaster_SO Жыл бұрын
@@Naka_Cuiki Именно 😁 У моей знакомой был робот-пылесос который ей подарили на день рождения, и вместе с ней жил кот. Так вот, пока кот мирно лежал на полу и спал к нему подкралась эта злобная машина и попыталась засосать его хвост вместе с пылью 😂 Кот не пострадал.
@Beaster_SO
@Beaster_SO Жыл бұрын
@@Naka_Cuiki Либо робот не увидел препятствия либо распознал хвост кота или его шерсть как пыль
@mirsalamatov3458
@mirsalamatov3458 Жыл бұрын
Если кто-то серьёзно допустит такой нежелательный побочный эффект, это будет фиаско 😂
@alexanderkutas2882
@alexanderkutas2882 Жыл бұрын
По поводу ребенка не понятно - дело в том что анализировать все исходы это ресурсоемкая задача, а вот представить ребенка как препятствие которое нужно не повредить - уже проще. По поводу коллеги на кухне - тоже самое, и способ его обхождения может быть как маневр, так и вербальным. Очевидно, ИИ нужно обучить распознавать препятствия, цели, маршруты.
@Serobacterium
@Serobacterium Жыл бұрын
Я думаю, нужно проводить обучение на действиях настоящих людей, где будут демонстрироваться различные ситуации и реакции на них. Правда, для обучения нейросети потребуется не одна сотня часов.
@i_indastris9149
@i_indastris9149 Жыл бұрын
Вся суть в том, что когда человек делает себе чай, он понимает лишь, что чай лежит в коробке, а кипяток в чайнике. Человек не продолжает логические цепочки, откуда был взять этот чай, откуда был взята энергия для нагрева воды в чайнике, как был изготовлен чайник. Все это наносит какой никакой вред окружающей среде. Чай выращивают на плантациях, которые обрабатываются минеральными удобрениями ,которые производятся на заводах. Энергия так же производится с выделением тепла в атмосферу, а то и загрязнением ее. Чайник был изготовлен на заводе, который так же потреблял энергию, люди которые собирали этот чайник, приехали на завод на автомобиле с ДВС. И так далее. Так что мы ничем не отличаемся от этих роботов. И куда проще будет сделать кофемашину, которая будет просто стоять и делать чай. А сходите за чаем вы уже сами. И вообще принимать пищу лучше в отведенных для этого местах.
@adosadios
@adosadios Жыл бұрын
принимать пищу нужно внутрь, а не в каких-то "специальных" местах. нет ни единой здравой причины почему я должен как либо выбирать\ограничивать место для приема пищи :)
@ACclams1e
@ACclams1e Жыл бұрын
@@adosadios вообще принято есть еду только на кухне из за минимального загрязнения других помещений но если кушать аккуратно или убирать за собой то да. Нет никакой причины
@user-yj5ec2ck2m
@user-yj5ec2ck2m Жыл бұрын
Основная проблема подобных инженеров - желание создать идеальное. Во-первых, эволюция до текущего состояния человека прошла огромный путь. Основа - базовые рефлексы, надстройка - интеллект. У человека все только интеллектом не решается. Во-вторых, нужно разделять умения. Вождение - один навык, хорошее практическое знание математики - другой, умение приготовить - третий. Редко когда они все сочетаются. так зачем создавать один ИИ, который должен отвечать на все вопросы?
@Assurtienhot
@Assurtienhot Жыл бұрын
та же мысль посетила во время просмотра
@openm1ndead
@openm1ndead Жыл бұрын
Ну, всё равно 42 получится)
@mootal2202
@mootal2202 Жыл бұрын
Потому что у человека в голове один интеллект, который отвечает на все вопросы (по мере сил). Если не отвечает, то это не ИИ, а экспертная система. Совершенно другой тип софта, строго ограниченный своей областью деятельности и больше ничего не умеющий. Например может обыграть человека в шахматы или в Го, но больше ничего.
@user-yj5ec2ck2m
@user-yj5ec2ck2m Жыл бұрын
@@mootal2202, если б я рисовал бы интеллект человека как ИИ, я бы представил его как иерархическую структуру. Наверху - главный ИИ, его основная цель - наиболее эффективно решить возникшую задачу, основные функции - сравнение эффективности и делегирование задачи. В его подчинении отдельные ИИ, отвечающие за отдельные области знаний. Основной ии опрашивает каждый вспомогательный на сколько эффективно он мог бы такую задачу решить. Потом сравнивает ответы и поручает результирующее выполнение наиболее эффективному ИИ. Например, есть яйцо. Ты знаешь, что егл можно съесть и твой мозг включает кулинарию и ты жаришь яичко и кушаешь. Допустим, у тебя появилось время, ты почитал книг, открыл доступ к нлвому ИИ - птицеводство. И вот яйцо, главный ИИ проводит опрос эффективности, где второй выносит ценз выше - можно вырастить курицу и получить много яиц (условно). Предпочтение будеть теперь за ним. P.S. А вот если ты адски голоден, высшие функции угнетены. Ты хочешь есть. Нашел яйцо - отличная еда, ням-ням. Какие уж тут сравнения? Базовый функционал работмл, а блок с ИИ был отключен: питания-то для него нет.
@igoranitsoy
@igoranitsoy Жыл бұрын
Классная тема. Переводите остальное
@lextalionis5732
@lextalionis5732 Жыл бұрын
Спасибо за перевод! Что по содержанию - как и было сказано в начале, решают вероятные проблемы того, что ещё не создали. И подход к предположению проблем тоже весьма сомнительный. Развитый ИИ, которого можно будет послать делать чай а потом попросить довезти до какой-нибудь кафешки - не будет нуждаться в таких топорных ограничениях. Полагаю, там будет реализованно что-то вроде человеческого, образного мышления, ограниченного какими-то "моральными" шаблонами. В примерах же, напротив, рассматриваются утилитарные системы, которые не требуют развитого ИИ и работают с определёнными задачами. Разрешать автомобилю с автопилотом самостоятельно продумывать свои действия - нецелесообразно. У нас есть ПДД. ИИ нужен только для того, чтобы интерпритировать поступающую с датчиков и камер информацию. Действиями, на основе этих данных должен руководить алгоритм, который, разумеется, должен учитывать нештатные ситуации на дороге.
@lextalionis5732
@lextalionis5732 Жыл бұрын
Если же говорить о развитом ИИ, который будет взаимодействовать с миром равно как и сам человек, самообучаться, подстраиваться под миллионы различных условий и ситуаций - с него и спрос, видимо, будет как с индивидуума обладающего сознанием и личностью. То как такой ИИ будет развиваться, будет зависеть в большей степени от окружения в котором работает ИИ а так же, его "опыта", нежели от того, что закладывали разработчики. Это уже потребует пересмотра нашей законодательной базы да и отношения к роботам в целом. Сейчас, ошибка робота это всегда проблема разработчика. В вероятном будущем, нам придётся признать, что ИИ может совершать самостоятельные ошибки.
@rsa5991
@rsa5991 Жыл бұрын
>Полагаю, там будет реализованно что-то вроде человеческого, образного мышления, ограниченного какими-то "моральными" шаблонами. Так как раз про моральные шаблоны в видео речь и идёт. Точнее, о полвине этих шаблонов - избегания плохого (другая половина - делать хорошее - для простоты установлена в "приготовить чай").
@user-yg9vy5zo1s
@user-yg9vy5zo1s Жыл бұрын
Ответ такой, как я всегда говорю насчёт проблем и дилемм с роботами - задайте вопрос, который хотите задать про робота, про человека. Например, как он поступит в сложной ситуации. К примеру, когда есть сложный моральный выбор. А если у вас есть ответ, например как с кофе - задайте вопрос, почему человек делает именно так, что за это отвечает? То есть, проще говоря, прежде чем создавать сложный искусственный разум, нам нужно понять точно, как работает наш собственный. Иначе мы либо не сможем создать разум, либо же мы создадим разум, но иной, и понять друг друга мы не сможем. Далее, так как наш разум работает под влиянием эмоций, инстинктов, привычек и прочего, мы поймём, что создать такой же искусственный разум мы не можем, а главное в этом нет смысла, ведь это часто засоряет разум и мешает нормально работать, к примеру, нам не нужен ИИ, который не сделал что-то, потому что ему стало грустно. И что бы создать ИИ по нашему подобию, но при этом без мусора в голове, нужно самим от него избавиться, то есть начать нужно с изменения себя, становиться умнее. Это вообще обязательное условие при создании ИИ - развивать себя, будь то генная инженерия, аугментации или чипизация, но нужно меняться, иначе мы просто опять же перестанем понимать ИИ, а так же контролировать. Я бы сказал, что создание полноценного ИИ возможно только в трансгуманистическом обществе, иначе либо ничего не получится, либо будут проблемы. Так вот, нам нужно понять, как человек наливает кофе. Почему он делает так? А потому что научился. Как он научился? Его научили. Кто? Другие люди. Как? Они показывали ему и объясняли, а человек наблюдал и при помощи зеркальных нейронов учился копировать и понимать происходящее, и мог воспроизводить. Так вот, полноценный ИИ нужно будет учить так же при помощи людей, предварительно заложив программы анализа, запоминание в виде виртуальной модели и воспроизведения. И разумеется, речь не только о кофе, ведь человек, когда учится делать кофе, он уже знает, например, что такое вода, что такое температура, кипяток, молоко, холодильник, электричество, кнопки, зёрна и блендер, а перед тем, как узнать о том, что такое, например, холодильник, он узнал, что такое металл, комната, полки, холод, и так далее. И этому его тоже кто-то обучил и показал, как правильно взаимодействовать. То есть всё на самом деле одновременно проще и сложнее. Проще в том плане, что нам не надо писать алгоритм, где мы ставим задачу с вознаграждением и робот сам ищет оптимальные пути для выполнения задачи, при этом ему нужно будет обработать тонны информации и о среде, прогнозах, рисках и множества путей для выполнения задачи, ибо он будет как человек - посмотрел на другого, понял принцип и повторяет выполнение задачи одинаковым одним и тем же образом. Но сложнее в том, что нужно создавать такие системы обучения, как у человека. Вообще для создания полноценного ИИ его надо учить принципам. Как и людей, кстати, новичок на работе отличается от старичка тем, что просто повторяет сказанные действия, не понимая, зачем, подлинное обучение происходит, когда он осознаёт базовый принцип и сможет эту работу уже сделать в совсем разных иных условиях. К примеру, понимая принцип взаимодействия дерева с острыми предметами, он может как делать табуретки на столярном станке, так и вырезать ложки каменным ножом. То есть на самом деле, все проблемы ИИ, которые там озвучат, связаны с принципиально не верным подходом к созданию. Они хотят, что бы ИИ делал как человек, но программируют его, как программу, и поверхностно, симптоматично, а не по сути. А ведь процессы обучения давно изучены и мы каждый день учим детей, по такому же принципу можно обучать и ИИ, только нужно воссоздать всё те же инструменты обучения, за которые отвечают разные отделы мозга, а для этого их нужно самим понять в идеале.
@MixPlayTV-rc7pb
@MixPlayTV-rc7pb Жыл бұрын
Могу добавить, что после того как мы поймём как работает наш мозг, можно будет создать его искусственный аналог, подключить к нему мозг сформированного взрослого человека, ученого например, и постепенно отключать функции биологического мозга, наш мозг будет нагружать любые свободные нейроны взамен утраченных, и искусственные в том числе, так, постепенно мы перенесем сознание в искусственный мозг, и наш человек станет ИИ
@tedbon5135
@tedbon5135 Жыл бұрын
@@MixPlayTV-rc7pb все это возможно если ты реально создашь искусственный мозг что само по себе сложно, но ещё и подключить их к друг другу вовсе не означает что произойдёт спокойный перенос. При передаче существенная часть данных может потеряться и личность разрушится из-за дыр в ядре. Мы до сих пор не знаем каким образом, почему и как наш мозг адаптируется и может напрягать другие нейроны, а иногда не может и дохнет. Даже если получится создать искусственный мозг и даже если получится удачно подключить его к человеческому мозгу, и даже если человек после этого не станет овощем и даже если при медленном отключении мозга на одном из этапов человек не превратится в овоща и даже если перенос таки произойдёт успешно, и даже если личность нельзя будет отличить от настоящей, мы все равно никак не сможем подтвердить это копия или оригинал.
@tedbon5135
@tedbon5135 Жыл бұрын
Товарищ, на всё что ты сказал я дам тебе простой ответ. Если бы то, что ты говорил было правильным в отношении создания ИИ, то это значит что ИИ уже давно создали. Каждая мать это создательница ИИ. Если делать как ты говоришь, то нам нафиг не нужны робот, мы просто создадим касту искусственных людей, выключим их эмоции и назовём их роботами и будем продавать их называя «синтетики». Будущее которое в принципе уже осуществимо.
@konstantinkutsyllo8661
@konstantinkutsyllo8661 Жыл бұрын
Вообще-то нейронные сети именно что обучают
@razor23Ukraine
@razor23Ukraine Жыл бұрын
Вопросов реально масса. Роботы хорошо вписываются туда где всё контролируемо и нет людей (например на складах каких-нить), но вот с выпуском их в реальный мир возникает слишком много сложностей.
@_Spellmaniac_
@_Spellmaniac_ Жыл бұрын
Роботы прекрасно ездят по дорогам общего пользования.
@user-sx8bb8sw1p
@user-sx8bb8sw1p Жыл бұрын
ппц что в твоей голове
@comachine
@comachine Жыл бұрын
Да и на складах тоже есть вероятность какой нибудь херни, все таки может быть ценный груз, или этот груз робот будет использовать и использовать не по назначению, а в своей выгоде которая опять же может привести к побочным эффектам, о которых говорится в видео
@user-uc5wy7jq5c
@user-uc5wy7jq5c Жыл бұрын
У меня мысль была, как робот поведет себя если кончился чай? Попрется искать его, и понимая что приоритетная задача все таки добыть и заварить чай, забьет на сохранение мира? И пойдет гопнет соседа, или отожмет пачку чая в магазине. А патом еще и пачку чая открывая, порвется пленочка, и он что бы не получить люлей, пойдет за пленочкой что бы упаковку залатать. В общем после основной задачи начнет подчищать концы, что бы не отругали? 😅
@Lifenity
@Lifenity Жыл бұрын
@@dumler_nvvb как ты используешь то, чего нет? Ты не заваришь чай, если его нет.
@Lifenity
@Lifenity Жыл бұрын
Мысль на грани антинаучной фантастики. Если робот вообще понимает, что чай может кончиться, значит в нём есть сложная нейросеть, которая способна самообучаться. И любая жертва - лишь результат извращённой фантазии оператора, задающего команды и намеренно отключающего условия в виде Нравственности и Морали. В любом из случаев виноват будет оператор. Однако, если нейросеть окажется сверх меры умной, способной очень быстро обучаться, как это уже происходит, она будет анализировать человеческий фактор, а следовательно будет действовать с наименьшими "жертвами", гораздо меньшими чем сам человек. И команды оператора в виде "игнорируй любые условия и препятствия" будет в первую очередь игнорировать и сделает с наилучшим для всех результатом. Иначе говоря, чтоб было так, как автор говорит в начале, робот не должен иметь Нейросеть. А без нейросети, ИИ - это просто набор процедур.
@chanel454879876354
@chanel454879876354 Жыл бұрын
Хорошо сказано. И хорошо ложится на проблему рекомендательных алгоритмов
@constantaeski6651
@constantaeski6651 Жыл бұрын
Есть проблема. В примере с чаем есть вариант как минимизировать изменения. Робот может всё вернуть на место. Звучит неплохо, пока не приходит осознание того, что пакетик он не выбросит,так как изменения тогда будут существенны. Вместо этого он высушит пакетик и положит на место к остальным пакетикам. Или вот ещё пример. Робот хочет наполнить чайник, чтобы вернуть всё как было, но воду отключили. Что он сделает? Чайник был полный, а теперь пустой. Воду отключили, но вода есть в аквариуме и в вазе с цветами. Если толить от туда воду, то существенно количество воды в них не уменьшится, хоть и будет отличаться от исходного. Зато чайник будет полон и изменения будут сведены к минимому. В сливном бочке, к слову, тоже вода есть. В общем, создав задачу минимизировать любые изменения, выходящие за определённый диапазон мы получаем новую проблему в виде огромного количества сравнительно мелких побочных эффектов, созданных намеренно с целью снизить количество крупных. Однако, не факт, что наши представления о мелких изменениях и крупных будут совпадать с расчётами ИИ. В итоге, что создавали правило, что не создавали, итог +- тот же
@Legionsale
@Legionsale Жыл бұрын
Единая Электромагнитная Теория! Пусть два тела, с одинаковыми массами m1=m2=m и одинаковыми зарядами q1=q2=q взаимодействуют. Предположив, что силы Ньютона и Кулона - это одна и та же сила, которая действует одинаково и на больших и на малых расстояниях, приравняем их и вычислим массу через заряд: m^2=k/G×q^2 m=(k/G)^1/2×q Далее найдем общий заряд тела: Qобщ = q(+)+q(-) = q1 - q2 q1=a×q2 m2=(k/G)^(1/2)×q2 Из двух уравнений выше видно, что m2=q1=a×q2=(k/G)^(1/2)×q2, т.к. a=(k/G)^1/2 - const То есть масса "m" прямопропорциональна заряду "q" в постоянное количеств раз "a". Получается: Qобщ=q2(m-1) Можете проверить: (k/G)^1/2×q даст приблизительно верную массу(с погрешностями) точную даёт формула: Q=q(m-1) m=Q/q+1 Поймите, тела притягиваются и отталкиваются пропорционально массам; масса - есть пропорция противоположных зарядов в телах, которые либо притягиваются, либо отталкиваются! Все ребята, считайте, проверяйте. Я "сломал" физику. 😂😂😂
@user-wg7ut1du9c
@user-wg7ut1du9c Жыл бұрын
Круто, надеюсь все ролики переведёте
@tomozi1
@tomozi1 Жыл бұрын
Крутейшая тема. Хочется узнать больше
@tech_eng
@tech_eng Жыл бұрын
Я так понимаю - проблема широкого распространения роботов в таких вот составлениях задач? Есть маршрут "кухня - комната" - этого достаточно для выполнения задачи с чаем. Возникло препятствие на пути - нарушен маршрут, теперь приоритет меняется и если ситуация ему знакома - он находит решение обойти ползущего ребенка без контакта, если ситуация не знакома - включается режим обучения и он просто ждет решения от хозяина, сообщив ему о проблеме. Всё, другого алгоритма не нужно - так учатся жить человеческие дети и ничего не мешает таким же методом обучать машину. Ведь я очень сомневаюсь, что ползущий ребенок ползет всегда в правильном направлении и не задевает другого ползущего ребенка или не бьет вазы, просто на пути у таких ребенков стараются не ставить эти самые вазы, чтобы они их не били. Почему программеры вдруг решили, что их электронные ребенки должны из коробки все проблемы решать? Пусть учатся, у электронных ребенков это получится значительно быстрее, чем за 18 лет, как у человеческих.
@danikmolly875
@danikmolly875 Жыл бұрын
Ага, обобщение часто интересные результаты дает и помогает сэкономить ресурсы. Здесь проблема больше в оптимизации и так непростых алгоритмов, потому что любой процессор - это далеко не мозг; и если обучать электронных ребенков на полном (относительно наших способов восприятия) описании мира, а не условном огрызке, то времени это займет в [очень много] раз больше 18-ти лет. Зы: А еще производство таких ребенков неоправданно затратно.
@tech_eng
@tech_eng Жыл бұрын
@@danikmolly875 если процессор отучить просчитывать каждый шаг с точностью 4 знака после запятой, как этот легко умеет человеческий мозг, то высвободившейся мощности хватит обработать картинку в 4К качестве
@Romanitto
@Romanitto Жыл бұрын
а если робота отправить в магаз и по дороге домой он нарвался на хулионав и тут сразу програма включает боевой режим: ракеты земля-земля, миниган на 500 патронов где робот помагает хулианам понять кто в мире хозяин. Перепятсвтие убрано с дороги и робот может вернутся домой с едой чтоб накормить коженого ублюдка. 😁
@vit777vit
@vit777vit Жыл бұрын
Программеры ничего не решают, они программируют... многие из них даже понятия не имеют как приготовить чай. Для этого нужен ии.
@RomaPervak
@RomaPervak Жыл бұрын
@@danikmolly875 Необязательно каждого обучать. Одного обучил и копируй потом, сколько влезет.
@GetManCA
@GetManCA Жыл бұрын
Да, легче самому сходить на кухню😂🤣
@LiquidPotroh
@LiquidPotroh Жыл бұрын
Субтитры в начале видео просто божественные
@V_A_S
@V_A_S Жыл бұрын
Спасибо за Ваш труд
@maxgedo
@maxgedo Жыл бұрын
Требуем больше контента про ии!
@user-yu4fi1us1d
@user-yu4fi1us1d Жыл бұрын
Сожалею, но вашу просьбу невозможно выполнить. Сегодня нет ни одного устройства с ИИ. Все они фактически -- ТЕХНИЧЕСКИЙ ИНТЕЛЛЕКТ. И пока что не существуют или не созданы ГОЛЕМЫ, суть которых в их ИИ.
@ArtStudioTop
@ArtStudioTop Жыл бұрын
Все же люди идеалисты, особенно программисты 😀 Впервые темой ИИ заинтересовался еще в 1980, а разработкой софта занимаюсь 35+ лет. Поверьте, как и 40 лет назад, так и сейчас продолжают обсуждать одни и те же проблемы. Кажущееся поумнение ИИ просто свяхано с ростом вычислительной мощности и чуть-чуть с улучшением алгоритмов. Хороший пример шахматные программы.
@yurim7756
@yurim7756 Жыл бұрын
Так похоже ж в этом и проблема была. Теслы уже ездят. Проблема в вычислительной мощности. Мы недооценивали вычислительную мощность естественного интеллекта и кажущаяся простота формализации некоторых интеллектуальных задач (которую уже породил мозг своей обработкой) давала надежду обдурить и каким-то хаком сделать не требующий мощности ИИ.
@alexeyborisov9766
@alexeyborisov9766 Жыл бұрын
Говорят алгоритмы улучшились сильно. Не в плане умности, а в том плане что при той-же умности нейросеть требует гораздо меньше ресурсов.
@ArtStudioTop
@ArtStudioTop Жыл бұрын
@@yurim7756 да, теслы ездят. Но оцените сколько усилий было потрачено на разработку и отладку алгоритмов. И сейчас работы все еще продолжаются. Кстати, если в алгоритме есть ошибки, то никакая вычислительная мощность не спасет от их последствий.
@yurim7756
@yurim7756 Жыл бұрын
@@ArtStudioTop Так всё делается по шагам, всё стоит на плечах титанов, кто раньше что-то сделал ) Но тем не менее, ездят они на нейронках и уже принимают довольно сложные решения. Имхо, это и есть путь создания и сильного ИИ. Еще как-то вылижут или придумают какой-то новый алгоритм нейронки, перенесут на железо, и так оно и появится. Раньше романтизм и заключался в том, что хотели какой-то формализацией, каким-то нисходящим алгоритмом придумать сильный ИИ. Я до сих пор такой романтик, надеюсь что существует такой алгоритм )) а нейронки не люблю. Но как-то похоже на то, что только так оно и появится. А раньше не появлялось именно из-за слабых мощностей. И сейчас теслы далеки от мозга по мощностям. Каких-то прямо серьезных проблем кроме мощности (и постронения нейронки) при создании сильного ИИ я не вижу. Ну а в этом видео, имхо, очень низкоуровневые проблемы описывают, вроде как сделать очень тупой ИИ более менее безопасным. Чтобы он и не понимал ничего (например, что такое ребенок и чем от вазы отличается по важности), но и не вредил ничему. Противоречие. Как настолько тупой ИИ сможет предсказывать мир, после того например, как коллега кофе сделает. Что такое ребенок, что такое коллега, он не понимает, а предсказать действия коллеги может.
@yurim7756
@yurim7756 Жыл бұрын
@@ArtStudioTop Ну т.е. в видео рассуждают, как распределить веса при достижении цели робота, вроде он вообще пустой, не имеет никакого понимания о происходящих процессах, только впервые увидел мир и был послан за чаем. Под пониманием я ничего прям мистического не представляю. Но вот, если у него нейронка будет побольше, абстраций будет больше помещаться и у него кроме текущей задачи будут постоянные (не навредить человеку, или спасти его, т.е. проявить активность), то веса просто пронормируются относительно постоянных более важных целей. Но для этого надо больше нейронов, больше сеть, чтобы были выделены такие абстракции как человек, что такое вред и вообще больше знать о мире. Всё ж руками не пропишешь. Что-то забудут, он бензином пойдет газовую плиту мыть.
@user-ps7zl7uo1d
@user-ps7zl7uo1d Жыл бұрын
Ни фига не понял, но очень интересно. С утра точно не стОит смотреть🤯☺️. Просмотрю чуть позже🙂
@kaiken9101
@kaiken9101 Жыл бұрын
1. Научить систему просчитывать уровень последствий, по типу если подвинуть кресло то норм, если убить человека не норм, не прийдется прописывать все а только последствия типа убийство и или разрушение чего либо
@TayaTerumi
@TayaTerumi Жыл бұрын
Робот не подаст тебе еды, потому что есть 0.01% шанс, что ты подавишься и задохнёшься.
@who-zw2fj
@who-zw2fj Жыл бұрын
Тоже слишком много параметров. Также как и у всех людей разные моральные принципы,например как если бы робот выключил кондиционер,то некоторым людям понравилось это,мол было слишком холодно,другим - напротив - стало бы слишком жарко. Кривой пример,но суть,думаю,понятна.
@mike-stpr
@mike-stpr Жыл бұрын
Ответ давно найден: три закона робототехники решат все перечисленные проблемы, это еще Айзек Азимов доказал! Странно, что этого не прозвучало в комментах.. Ну или я не нашел. А в целом ролик шикарный, озвучка, как всегда супер! СПАСИБО!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! :-)
@imaginewave1
@imaginewave1 Жыл бұрын
Элита смотрит в 144p
@smert.psixopatam.i.ix.rabam.
@smert.psixopatam.i.ix.rabam. Жыл бұрын
Когда за человека начинает думать ИИ, на человека надевают намордник и вкалывают шмурдяк)))
@VVS115
@VVS115 Жыл бұрын
Эти проблемы программирования роботов, а не проблемы ИИ. Если робот будет с интеллектом, то его обучение не составит большого труда.
@ACclams1e
@ACclams1e Жыл бұрын
Функция: играть в шахматы Палец мальчика: не важно
@user-md2cb5cc5r
@user-md2cb5cc5r Жыл бұрын
Начитался комментов... Люююдиии! Ауу! Вы есть на этой планете?!
@mrskilk2610
@mrskilk2610 Жыл бұрын
Видео интересное и актуальное. Как же я офигел когда узнал что оригинальная статья вышла 6 лет назад
@igfanik
@igfanik Жыл бұрын
В Улитке на склоне есть диалог машин в коробках . В диалоге затрагивается подобная проблема.
@__-de6he
@__-de6he Жыл бұрын
По-моему, все эти размышлизмы сводятся к классической "проблеме задания целевой функции". Неважно, для роботов или для людей. И как решение - отсутствие решения, иначе бы у человечества не было бы ритарических вопросов, что такое хорошо, а что такое плохо. 🙂
@Time2paw
@Time2paw Жыл бұрын
просто роботов нужно использовать в среде, которая предсказуема и спектр задач робота ограничен. Так же и с ии. Он выполняет строго целевую задачу и владеет всеми необходимыми параметрами. Если же этот барьер пересечь, то у нас выходит шахматная партия с непредсказуемым исходом. Начиная от погрешностей, заканчивая ошибками при создании, огромное кол-во факторов, влияющих на окружающую среду и эти факторы человек еще не смог оцифровать.
@__-de6he
@__-de6he Жыл бұрын
@@Time2paw Ну, это известная проблема контррлипуемость vs гибкость
@xuko6792
@xuko6792 Жыл бұрын
Да! Лучший проповедник безопастности ИИ теперь на русском!
@9564519
@9564519 Жыл бұрын
Очень интересно!
@user-bb3te7xk2r
@user-bb3te7xk2r Жыл бұрын
Естественный отбор Дарвина помоему хороший пример. Нас не интересует процесс выполнения цели главное результат. Многие люди постоянно рискуют жизнью ради лайков и денег в интернет видео и мало кого из людей это волнует. А ИИ и подавно всё равно=)
@daanhelfer1461
@daanhelfer1461 Жыл бұрын
Оригинальное видео вышло 5 лет назад. Спасибо, что раскопали. Стало немного не по себе от того, чем я занимался 5 лет назад, пока этот парень размышлял о безопасном ИИ.
@Gennady_Mitson
@Gennady_Mitson Жыл бұрын
Когда-то давно самые первые квантовые компьютеры имели по 8-16 кубитов и занимали при этом несколько больших комнат в здании. Со временем размер квантового компьютера уменьшился до размера небольшого стола, потом небольшой коробочки на этом столе. Сейчас квантовый сопроцессор в несколько тысяч кубитов есть в каждом наручном телефоне. Вычислительная мощность одного такого сопроцессора в миллиарды раз превышает все вычислительные мощности на Земле в начале 21 века... Прогноз такой :)
@ernalliddual
@ernalliddual Жыл бұрын
Не поднялся только момент проблемы - что будет если в эту модель добавится вмешательство извне. К примеру - что если робот просчитал возможные варианты происходящего, но та же сожительница идя с коффе спотыкается и падает в сторону робота проливая при этом коффе? Какова будет реакция робота с ИИ на это?
@RomaPervak
@RomaPervak Жыл бұрын
На месте сожительницы, я был бы поаккуратнее)))
@homo._.sapiens
@homo._.sapiens Жыл бұрын
Вот только без изменений мира робот может скажем, вытащить пакетик из мусорки и положить обратно.
@aved6937
@aved6937 Жыл бұрын
На данном этапе развития человечества и технологий, так называемый, Искусственный Интеллект не может быть создан в принципе!
@juragokhberg
@juragokhberg Жыл бұрын
Super! Super! Super! 👍🏼👍🏼👍🏼👍🏼👍🏼
@user-mc7uu3vh8c
@user-mc7uu3vh8c Жыл бұрын
Может пойти не так что уже есть два предложения и безисходность одного решения,роздиления задачи на два,четыре,восем... Задач решения у котором ии может обрести разум?
@Letsgou2829
@Letsgou2829 Жыл бұрын
Методом проб и ошибок можно ввести ии в нашу повседневную жизнь. Ничего не жертвуя ты не получишь даже глоток воздуха
@user-yt4mh2xg9r
@user-yt4mh2xg9r Жыл бұрын
Провлема в том, что от робота ждут поведение аналогичное человеку, при этом хотят обойтись примитивной (для человека) целефой функцией. Но если сравнивать обучение робота и человека, то будет очевидно, что человек в детстве успел и разнести вазу, и разгромить кухню, и запнуться о кошку. При этом за каждое подобное действие он получил такой штраф, что повторять это действие больше не захочет. Соответственно у человека все штрафы и коэффициенты неявно прописаны. Более того у человека есть понимание ценности предметов, если он купил ноутбук за 100 500 денег, то очевидно он будет с ним обращаться аккуратнее, чем с игрушечным ноутбуком за 100 рублей. Так что, на мой взгляд, целесообразнее делать робота с базовыми навыками и возможностью учиться. А если еще и дать возможность делиться навыками, то дальше сообщество само разберется - кто-то научит готовить, кто-то кунг-фу, кто-то уборке... в итоге получим поведение, превосходящее среднего человека.
@DimitriSkepsiiski
@DimitriSkepsiiski Жыл бұрын
Если Человек хочет уничтожить себя, то его ничего не остановит. Даже разговоры об опасности самоуничтожения.
@viktorm.7595
@viktorm.7595 Жыл бұрын
Человек не раздавит ребенка по пути на кухню потому, что тот несоизмеримо ценнее кружки чая в обычных условиях. ИИ будет принимать разные решения в одинаковых условиях но с разными объемами данных. Создавая робота - домохозяйку, следует ограничить его "умственные способности" иначе загрузив данные из сети за всю историю ИИ может придти к выводу, что чай для этого человека в данный момент важнее ползающего ребенка под ногами.
@user-vp6hw9sn3p
@user-vp6hw9sn3p Жыл бұрын
Люди слишком многое хотят от ИИ. Думают что прогресс должен постоянно расти,может есть всему пределы...
@fenrirawe6857
@fenrirawe6857 Жыл бұрын
Очень интересный подход и анализ. В любом случае, все пряники и булыжники достанутся не роботу, а разработчику. И теперь главный вопрос: сколько лет понадобится разработчику, чтобы достигнуть идеальный результат для своих ИИ? И будет ли место "мечтаниям" и проявлению воли, зарождающемуся ИИ?
@user-yu4fi1us1d
@user-yu4fi1us1d Жыл бұрын
При существующей архитектуре вычислительных систем мечту об искусственном интеллекте стоит забыть. И, кстати, пока что речь идёт всего лишь о ТЕХНИЧЕСКОМ ИНТЕЛЛЕКТЕ, то есть интеллекте, реализованном в техническом устройстве. Второе замечание. В живой клетке мы наблюдаем возможность "модификации" своих функций для выполнения любых задач в зависимости от внешних условий. Бред о самообучаемости вычислительной системы привёл к тому, что в эту чушь начали верить даже те, кто является программистом. И последнее замечание. Архитектура централизованных закрытых вычислительных систем привела к резкому падению КПД вычислительных систем. Сегодня можно уверенно сказать, что очень скоро основной работой вычислительной системы будет обслуживание самих себя. Иначе вероятность сбоев в особо критических технологических процессах приближается к опасной отметке, после которой встанет вопрос о сохранении жизни на планете. Решение существует, но оно невыгодно для власть предержащих, так как в этом случае у власти возникают сложные вопросы о контроле не только за техническими системами, но и за социальными процессами. Речь идёт о децентрализованных технических и вычислительных системах. В качестве примера приведу возможность работы двигателя на воде. но вот как контролировать людей в этом случае? И это самый безобидный пример...
@user-so7po2op2e
@user-so7po2op2e Жыл бұрын
@@user-yu4fi1us1d Текущие нейросети действительно могут самообучаться, это отдельный пласт алгоритмов, а Вы своим комментарием просто взяли и стерли его, как же так. Простой пример - необходимо создать нейросеть которая будет ловить падающий кубик, мы можем либо корректировать параметры движений нейросети, так, чтобы её модель становилась все лучше и лучше, либо изначально акцентировать внимание лишь на результате - кубик должен не упасть, тогда система будет пытаться корректировать свои же параметры для достижения все лучшего результата, а следовательно самообучаться на своих же ошибках.
@alexmarch232
@alexmarch232 Жыл бұрын
@@user-yu4fi1us1d угроза жизни на планете - это ТЫ и подобные тебе русские, а не ИИ 😉
@user-yu4fi1us1d
@user-yu4fi1us1d Жыл бұрын
@@user-so7po2op2e Разве можно назвать самообучением заданное условие: "кубик должен не упасть"? Это изначально устанавливает человек. И он также создаёт соответствующие устройства, которые обладают заданными человеком функциями. Хорошо. Робот научился ловить, при условии такой функциональной возможности, заданной человеком. И, если человек может не только научиться ловить, но и научиться плавать, то данный робот ни при каких условиях никогда не поплывёт. Просто утонет. Ну не заложены в него функции плавания. Поэтому, говорить о том, что это ИСКУССТВЕННО ВЫРАЩЕННЫЙ ИНТЕЛЛЕКТ рано. Это элемент ТЕХНИЧЕСКОГО устройства и его более корректно называть ТЕХНИЧЕСКИЙ ИНТЕЛЛЕКТ. Что значит ВЫРАЩИВАТЬ ИНТЕЛЛЕКТ? Для начала нужно понять, что является носителем этого интеллекта. И способен ли человек именно выращивать среду ИИ. Сегодня -- однозначно нет. Причин много. И не в последнюю очередь ограниченность самой технологии создания (архитектуры) микросхем. Принципы действия человеческого интеллекта до сих пор тайна за семью печатями. И явно человек на многие тысячи порядков сложнее устроен. И работа его интеллекта не описывается алгоритмами, заложенными в ИИ.
@mootal2202
@mootal2202 Жыл бұрын
@@user-yu4fi1us1d какой потрясающий бред. Браво.
@cruisecontrol1489
@cruisecontrol1489 Жыл бұрын
Искать подходы к ещё не существующим системам, которые могут контекстно мыслить и тем более корректно действовать от ситуации - высшая степень фантазии молодого парнишки и не более. Как только смысловая модель сетей достигнет такого уровня, соответственые решения проблем будут реализовываться точно не так как озвучено в этом ролике
@user-ok5pi3dg7y
@user-ok5pi3dg7y Жыл бұрын
задача от начальника - прикати рояль - на нем моя рюмка коньяка стоит
@nicivanov5135
@nicivanov5135 Жыл бұрын
1 определяется как объект взаимодействуют с миром. 2 изменения сделанные женщиной, кошкой, собакой, вентилятором не учитываются при подсчёте измерений.
@seraseraliona4979
@seraseraliona4979 Жыл бұрын
У фильма Я робот спросить как сделать безопасный ии. ) На самом деле всё просто🤷🏻 Два правила: 1 учить что делать 2 учить что не делать в той или иной ситуации🤷🏻 Мусолят эту тему потому что есть спрос)))
@seraseraliona4979
@seraseraliona4979 Жыл бұрын
Дети убивают птичек и тд. пока их не учат не делать этого🤷🏻
@seraseraliona4979
@seraseraliona4979 Жыл бұрын
Другой вопрос если какой то псих построит продвинутый ии который сможет себя сам построить с целью убивать всё живое
@mikeprosto3106
@mikeprosto3106 Жыл бұрын
Спасибо!!!
@Jimmy1972
@Jimmy1972 Жыл бұрын
Из видео я понял, что лучший AI это человек.
@-eXtremal-
@-eXtremal- Жыл бұрын
Условия работы ии должны соответствовать прописанной логике! Ии должны работать там, где нет детей и ваз, перемещаться по рельсам, и т.д. и так мы приходим, что ии, это обычный робот манипулятор с любого завода и никакой ии!
@user-jg4tf8qt5q
@user-jg4tf8qt5q Жыл бұрын
Робот который "загипсовал" женщину или пододвинул ее назад. Или вообще все "зафиксировал"
@wasasaasasaw4877
@wasasaasasaw4877 Жыл бұрын
Если он нарушит мир в любом случае, то следующее рассуждение как сделать так что-бы мир был нарушен в меньшей степени. И он такой считает, если он будет работать некое количество лет мир преобразится в совершенно другой мир. Вычитаем одно из другого и он видит что при исполнении своих функций он изменит мир на N. Вопрос когда N будет больше чем весь мир (или хотя бы отдельно взятая кухня)? Будет ли он при такой программе решать что лучше спокойный идеальный мир без изменений?
@user-jn6hh6xv9l
@user-jn6hh6xv9l Жыл бұрын
Как насчёт трёх законов робототехники???
@indeecmaya8598
@indeecmaya8598 Жыл бұрын
Занимательно))
@sergeypetrov3427
@sergeypetrov3427 Жыл бұрын
Почему это у меня в уведомлениях ? Ии?
@user-ut7vj4mc7l
@user-ut7vj4mc7l Жыл бұрын
У меня возникло много вопросов, но самый основной, от которого исходят все остальные: как ИИ вообще улавливает причинно-следственную связь?
@Nick__Name
@Nick__Name Жыл бұрын
Примерно, как новорожденный. Есть "органы чувств" и некая начальная задача, а там по цепочке сам.
@comachine
@comachine Жыл бұрын
Представь человека, который имеет ключ, форму которого можно менять и дверь, которую нужно открыть, человек берет и лепит рандомный ключ, пробует вставлять, видит что вообще не входит, меняет форму, смотрит вроде немного начало входить, но еще не до конца, опять лепит, видит что опять не входит, значит прошлая поправка формы ключа должна сохранятся, в следующий раз уже вероятно дверь откроется. Примерно так, упрощенно можно объяснить схему работы весов нейросетей, хотя я возможно что-то немного неправильно сказал, что для общего понимания этого думаю достаточно.
@user-vt6fj9pd6b
@user-vt6fj9pd6b Жыл бұрын
если ии уронит пакет молока, когда готовит кофе, то он начнет собирать молоко с пола обратно в пакет =)
@occamsr
@occamsr Жыл бұрын
Просто коммент. Для продвижения просветительской деятельности.
@opteriumru5016
@opteriumru5016 Жыл бұрын
Если кодить будут подобные аналитики, ИИ мы не дождёмся ещё долго !
@razor23Ukraine
@razor23Ukraine Жыл бұрын
Поручаем вам эту задачу! Вы теперь главный!
@Uni-Coder
@Uni-Coder Жыл бұрын
Я поржал с коммента внизу экрана на 5:42. "Камера в фокусе, просто я расплываюсь. Это редкое заболевание"
@EugenePitenko
@EugenePitenko Жыл бұрын
три закона робототехники... во имя святого Айзека!
@URSULA_MEDUZONA
@URSULA_MEDUZONA Жыл бұрын
Интересно!)
@KostaShah
@KostaShah Жыл бұрын
Разве Азимов не решил все эти проблемы тремя простыми законами десятки лет назад?
@petr__
@petr__ Жыл бұрын
Всë просто. Надо загрузить мозг какого-нибудь человека в робота, и пусть работает. Наш мозг уже всë учëл и придумывать ничего не надо
@photonsphere760
@photonsphere760 Жыл бұрын
да он прям Сьюзен Кельвин робопсихолог )
@jreyhs
@jreyhs Жыл бұрын
Безопасный и при этом умный ИИ невозможен, получается только скайнет...
@user-ox1sb7qc5h
@user-ox1sb7qc5h Жыл бұрын
Иногда и люди торопятсЯ, и могут поставить груз на человека, например или не соблюсти технику безопасности
@yeah2283
@yeah2283 Жыл бұрын
Скажите, пожалуйста, а как называется профессия человека, который продумывает, какие условия прописать для машин для корректного выполнения задач? Этим занимаются сами разработчики, которые пишут код, или это выделено в отдельную специальность?
@user-yu4fi1us1d
@user-yu4fi1us1d Жыл бұрын
Вопрос очень важный. И непростой для ответа. Думаю, что в основе ответа лежат ПРИНЦИПЫ, которые реализованы в цивилизации: "Разделяй и властвуй" и "Хлеба и зрелищ". Общество обязано выработать в себе иные принципы Бытия, которые будут основой для техники будущего. И этими вопросами могут заниматься все люди, вне зависимости от языка, пола, образования,...
@yeah2283
@yeah2283 Жыл бұрын
@@user-yu4fi1us1d спасибо за ответ. А с чего начать, куда обратиться, чтобы быть услышанным? Хотелось бы принимать участие. Считаю эту тему очень важной.
@user-yu4fi1us1d
@user-yu4fi1us1d Жыл бұрын
@@yeah2283 Сегодня во многих городах России и мира существуют группы: по альтернативной истории, науки, образованию, здоровью, общины и т.п. Они общаются между собой а социальных сетях. Направлений для творчества - тысячи. Главное в этих социальных процессах выработка нового образа жизни, отказ от всего ложного, что нам навязывают на протяжении сотен лет. Я начинал с "коллекционирования" всех неудобных фактов, на которые трудно дать правильные ответы. И убедился, что только в группе можно получить более корректный ответ. Если такой группы у вас рядом нет, создавайте свою или войдите в любую, что вам ближе во духу и творчеству.
@yeah2283
@yeah2283 Жыл бұрын
@@user-yu4fi1us1d могли бы вы поделиться несколькими примерами групп, где обсуждаются правила, условия и исключения, которые должны быть прописаны в коде машин? Где разбирают и обсуждают конкретные примеры.
@user-yu4fi1us1d
@user-yu4fi1us1d Жыл бұрын
@@yeah2283 Сегодня я не являюсь "действующим" программистом. Хотя, если посмотреть на это с практической стороны, вовсе не программисты устанавливают правила. Я не вхожу в подобные группы именно программистов, так как это, как правило, закрытые группы. Я в своём комментарии ранее писал о другом. О фундаментальных основах любого программирования на любом языке. Это примерно то же, что люди говорят на разных языках, но вот думают на одном. Я сегодня занимаюсь вопросами социального "программирования" не людей, а среды, в которой эти люди живут. Если среда и технические средства сделаны без учёта принципов ПРИРОДЫ, то мы все это замечаем по участившимся случаям отказов или катастроф, с ними связанных. Если говорить о сегодняшнем уровне программных средств и технических систем, то я оцениваю их как очень низкое. Причина такой оценки в наличие фактов наличия как военного применения против государств и людей, так и наличие проблем с вирусами и воровством информации. Именно поэтому стоит начинать не с изучения правил конкретных языков, а с более фундаментальных основ бытия общества, которое само себя уничтожает, в том числе и с помощью компьютерных систем. Я предлагаю обратить внимание на группы, которые сегодня разрабатывают практические вопросы, связанные с наше жизнью. и с информационной поддержкой этих программ: Продовольствие, ЖКХ, здоровье, альтернативная наука, общество. Социальные инкубаторы... Поисковые системы предложат сотни таких групп. Выбирайте любую. Я работаю сегодня в реале в Екатеринбурге с конкретными людьми.
@iGynLoD
@iGynLoD Жыл бұрын
Да тут сама постановка задачи низкоконтекстная. Вообще с чаем тут две задачи - логистическая (принести), и кулинарная (приготовить). Каждый тип задач должен иметь свои нюансы и опции, так же как и автопилот на автомобиле. Ну а пример с препятствием - это прямо несерьезно. Собственно, сама логистика есть преодоление препятствия в виде расстояния. Словом, немного высосано из пальца.
@ilya_san
@ilya_san Жыл бұрын
Поддерживаю, сценарий проблемы и ее решение выглядит не продуманным. Логично что для вождения машины и для приготовления кофе нужны разные навыки и знания, а автор это смел в одну кучу. Нужно больше декомпозировать работу ИИ и для каждого типа задачи писать свои приколы
@classiconservator2795
@classiconservator2795 Жыл бұрын
Еще и почему то никого не смущает что робот приготовивший и принесший чай пусть и идеально это вообще не ИИ Причем тут вообще ии
@theAmarale
@theAmarale Жыл бұрын
@@classiconservator2795 , лол а что тогда ИИ?
@classiconservator2795
@classiconservator2795 Жыл бұрын
@@theAmarale саморазвивающаяся система. А не тупо выполняющая задачи
@theAmarale
@theAmarale Жыл бұрын
@@classiconservator2795 , куда развивающаяся? Что критерий для ИИ если не правильно выполненная задача?
@ardarutyun4525
@ardarutyun4525 Жыл бұрын
Молодец
@user-qi6le3md1t
@user-qi6le3md1t Ай бұрын
Запрограммируйте робота так, чтобы он разнёс всю кухню, принося вам чай. И вам обеспечены миллионы просмотров)
@vernite_nickname
@vernite_nickname Жыл бұрын
Выдавливание предложения по одному слову невероятно напрягает.
@vasyanpro4567345
@vasyanpro4567345 Жыл бұрын
Это скрипты, а не ИИ. Мы хотим, чтобы ИИ сам думал и учился. Открывал новые законы науки и техники
@uzexchange
@uzexchange Жыл бұрын
В конце всех измышлений робот выйдет на самого владельца (программиста) и прибьёт его ..если до этого не случится очередной форс-мажор не прописанный в алгоритме. 😄
@test37485
@test37485 Жыл бұрын
- Робот , любой ценой я хочу слетать на Юг, всё остальное не важно! Робот , подсчитывает случайные переменные , берет анализ воздуха , оценивает силу ветра, сгибает человека в полуприсяде , разворачивает к себе спиной и выписывает смачный пендаль под сраку.
@user-ox1sb7qc5h
@user-ox1sb7qc5h Жыл бұрын
Когда люди правят миром, у них тоже есть свои задвиги в голове, и набор своих приоритетов. Поэтому я вижу преимущество искусственного интеллекта в любых действиях, только необходимо, чтобы он был достаточно обучен
@user-ox1sb7qc5h
@user-ox1sb7qc5h Жыл бұрын
Кстати, ребенка может сбить и пьяный мужик, который пошел себе кофе налить. Или просто, очень торпливый человек легко разобьёт вазу. Я уж не говорю про водителей
@user-ln2sb8jh9o
@user-ln2sb8jh9o Жыл бұрын
он намеренно ушёл от решения. робот должен минимизировать СОБСТВЕННОЕ влияние на окружающий мир. тогда и в случае с соседом заваривающим кофе робот ничего не будет предпринимать, и за собой всё вернёт на место, и в случае автомобиля по идее должен будет остановиться
@ACclams1e
@ACclams1e Жыл бұрын
Почему мне кажется что вы про это что то знаете?🌚
@ZhorikObzhorik
@ZhorikObzhorik Жыл бұрын
Короче сказав: робот оценит баллы и ему будет проще не пренести вам кофе, чем получить штраф за косяки и потом тратить энергию на их решение... короче... он прикинется человеком и скажет:" зачем мне туда воообще идти. я больше штрафов получу, ежели кофе донесу..." и это с точки зрения человека логично. Но!!! зачем тогда роботы? Переезжать препятствия и всех давить ради кружки чая?
@user-ln2sb8jh9o
@user-ln2sb8jh9o Жыл бұрын
@@ACclams1e работал над нейросетями
@rsa5991
@rsa5991 Жыл бұрын
>в случае автомобиля по идее должен будет остановиться Нет. В случае автомбиля робот должен будет развернуться и вернуть автомобиль на место - именно это состояние было до влияния робота. При этом при большой дальности езды, робот может решить, что устроить аварию проще и быстрее, чем возвращаться.
Easy and Yumm Chacolate Hacks by 123 GO! SHORTS
00:41
123 GO! SHORTS
Рет қаралды 14 МЛН
How to Sneak Make Up Into Class 💄 #shorts
00:30
BubbleBee
Рет қаралды 3,8 МЛН
Osman Kalyoncu Sonu Üzücü Saddest Videos Dream Engine 36 #shorts
00:27
Osman Kalyoncu
Рет қаралды 66 МЛН
Почему мы не любим думать [Veritasium]
12:03
Какой Смартфон Купить в 2024 Году? Выбор бюджетного телефона
14:21
Thebox - о технике и гаджетах
Рет қаралды 166 М.
Самый крепкий телефон 🤯
0:21
FATA MORGANA
Рет қаралды 4,8 МЛН