Как создать безопасный ИИ? #3. Взлом вознаграждения 1/2 [Robert Miles]

  Рет қаралды 48,794

Vert Dider

Vert Dider

Жыл бұрын

Поддержать проект можно по ссылкам:
Если вы в России: boosty.to/vertdider
Если вы не в России: / vertdider
Иногда искусственный интеллект может пойти на «обман» и предпринять неожиданные шаги, чтобы получить большее вознаграждение.
Плейлист «Конкретные проблемы безопасности ИИ»: • Concrete Problems in A...
Видео Computerphile: • Stop Button Solution? ...
Статья «Конкретные проблемы безопасности ИИ»: arxiv.org/pdf/1606.06565.pdf
Канал Сета Блинга: / sethbling
Переводчик: Александр Пушкин
Редактор: Алексей Малов
Научный редактор: Михаил Самин
Озвучка: Станислав Черсков
Монтаж звука: Андрей Фокин
Монтаж видео: Джон Исмаилов
Обложка: Андрей Гавриков
Спасибо за поддержку на / vertdider и boosty.to/vertdider
Озвучки Vert Dider выходят с вашей помощью:
Pavel Dunaev, Mikhail Stolpovskiy, Sergey Zhukov, Ira Kozlovskaya, Amir, JIukaviy, Куляш, Dmitrii Komarevtsev, Мikhail Samin, Roman Inflianskas, Oleg Zingilevskiy, Alena, Vitaliy Vachynyuk, Ника Калмыкова, opperatius, Aleksandr P., Pavel Parpura, Katoto Chan, Anton Bolotov, Anatoly Ressin, Eugene Tsaplin, angel, Artem Amirbekov, Victor Cazacov, Kirill Zaslavskii, Vladyslav Sokolenko, Alexander Balynskiy, Dzmitryi Halyava, Ihar Marozau, Kseniya Stukova, POD666, Aleksei Shabalin, Irina Shakhverdova, Vadim Velicodnii, David Malko, Nastya, Evgeny Vrublevsky, Stanislav Obrazcoff, Kirill Vedensky, Валентин Матвейчик, Leonid Steinberg, Alexander Goida, Katya Ma, Morock_D, Sergey P, Ilya, Oleksandr Hrebeniuk, Сергей Платоненко, Валентин Ильин, Владимир Ямщиков, Мария Зверева, Адам Шифф, Rashn, Nikrodol, Lexx, Rincewind, Alexander Lebedev, Roman Gelingen, Sonra44, Сергей Клопов, Ranis Zaripov, Timophey Popov, MaximML , Rekvet, Илья Зверев, Никита Омельницкий, Timur Rahmatulin, Иван Новиков, Арс Ник, Anton G, Dmitry Perekalin, Vadim, Владимир Авдиев, Точка Зрения, SpireX, Maxim Khaustov, Р Ч.
#VertDider #RobertMiles
Сайт студии: vertdider.tv
Мы в социальных сетях:
- studio_vd
- t.me/vertdider
- / vert_dider
- coub.com/vertdider
Источник: • Reward Hacking: Concre...

Пікірлер: 277
@VertDiderScience
@VertDiderScience Жыл бұрын
Поддержать проект можно по ссылкам: Если вы в России: boosty.to/vertdider Если вы не в России: www.patreon.com/VertDider
@nmarukhno
@nmarukhno Жыл бұрын
Классика "не страшно если ИИ пройдёт тест Тьюринга, страшно если он сможет специально завалить его."
@MrTrashification
@MrTrashification Жыл бұрын
Аж до мурашек, страшно.
@user-ds2hn3wz5h
@user-ds2hn3wz5h Жыл бұрын
@@MrTrashification меняй памперсы гибона
@user-ds2hn3wz5h
@user-ds2hn3wz5h Жыл бұрын
@@bestrapperrussiann я Моцарта предпочитаю и Бетховена. Такое как у вас, для меня ( извиняюсь) невозможно.
@vinfdsc
@vinfdsc Жыл бұрын
@@user-ds2hn3wz5h Судя по вашему комментарию про памперсы, Моцарта вы даже не слышали ни разу.
@user-ds2hn3wz5h
@user-ds2hn3wz5h Жыл бұрын
@@vinfdsc Мне 14 и поверьте слушаю
@dreaminglazar7077
@dreaminglazar7077 Жыл бұрын
Всего-то нужно сначала создать цель искать способы взлома вознаграждения, чтобы понять, как правильно поставить задачу. СДЕЛАЙТЕ БОЛЬШЕ ПЕРЕВОДОВ ЭТОГО ЧУВАКА! Почему так РЕДКО выходят видео с ним?
@bang4999
@bang4999 Жыл бұрын
То есть даже ИИ понимает, что для того, чтобы получить вознаграждение, легче обмануть систему, а не играть по её правилам..
@LionbI4
@LionbI4 Жыл бұрын
Нет, для системы не существует понятие "обмануть", она просто идёт наилучшим путём. Если для этого надо пользоваться эксплоитами системы - значит так и будут. С выключеной системой не всё так одназначно - система не может осознавать себя когда она выключена, поэтому нейронные связи никак не изменятся. Для неё длительность выключенного состояния будет равна 0.
@user-ze3ez3iy6c
@user-ze3ez3iy6c Жыл бұрын
Взлом вознаграждения у человека - это употребление наркотиков. Эволюция создала нас таким образом, что бы за общение, потребление пищи и секс мы получали награду в виде дофамина. Но некоторые индивиды решили напрямую увеличить (взломать) количество дофамина в мозгу с помощью наркотиков. Точь в точь как хитрожопая нейросетка
@TheMrKMen
@TheMrKMen Жыл бұрын
Интересно, что люди не употребляют наркотики, если у них всё социально неплохо. Если у них есть это самое естественное счастье. Реабилитация от наркомании строится на таком вот достижении естественного счастья. Т-е в человеке есть защитный механизм какой-то от взлома вознаграждения. Взлом вознаграждения у человека срабатывает если он несчастен, и пытается вернуться в нормальное состояние Но если человек по умолчанию в норме, ему это всё не нужно. Вы замечали что все ИИ ведут себя как правило неадекватно. Как ужаленные судорожно пытаются добиться вознаграждения. Они всегда ведут себя как наркоманы. ИИ всегда страдает. Это вполне может быть повод для того чтоб взглянуть иначе на систему вознаграждения. Как сделать ИИ менее бешеным.
@TheMrKMen
@TheMrKMen Жыл бұрын
Вообще мне идея пришла, что можно попробовать разные фишки. Можно сделать так, чтоб при слишком высоком значении вознаграждения, очки обнулялись, или даже так что мы разделяем рецептор счастья и реальный накопитель кайфариков. И делаем систему так, чтоб вознаграждение накапливалось на отдельную переменную, которая стремится к нулю постоянно, но если переменная занимает слишком большое значение в плюс или минус, у неё появляется компенсаторный рост или падение и уже в свою очередь эта пружинка эмоциональная фиксируется системой вознаграждения. Т-е мы вознаграждаем не напрямую, а с помощью "боба" хз как сказать. Думаю это может интересно сработать.
@psevdonim257
@psevdonim257 11 ай бұрын
@@TheMrKMen фишка в том что человек несчастный сам не понимает чего ему не хватает, и наивно скатывается к наркотикам, ну и понятно что не в деньгах счастье, это вообще мега философский вопрос, да и мало сказать человеку что ему нужно , это ж ему самому нужно дойти мозгами до этого, а наркота мозг сразу отрубает , чтоб не было куда уходить от нее, вот так
@TheMrKMen
@TheMrKMen 11 ай бұрын
@@psevdonim257 думаю счастье - это состояние, когда невозможно поднять вознаграждение ещё выше. Вернее ты можешь получать удовольствия или неудовольствие. ИЛи скорее даже не так. Счастье - это невозбуждённое состояние, когда ничто не может сдвинуть тебя в страдания или эйфорию. Есть ощущение, ассоциированное с эйфорией и ощущения, ассоциированные со страданиями, но они не влияют на внутреннюю систему вознаграждения или наказания.
@TheMrKMen
@TheMrKMen 11 ай бұрын
@@psevdonim257 Ну вообще в деньгах есть счастье. Деньги - один из факторов. Есть даже в науке направление такое "экономика счастья". Вкратце суть там в том, что от нуля до определённого дохода зависимость со счастьем линейная, однако значения дохода выше, уже не влияют никак на счастье, дальше оно субъективно. Счастье - это такое состояние с объективным и субъективным зерном. Нужно закрыть базовые потребности, а затем научиться принимать, что они закрыты.
@Simulyakra
@Simulyakra Жыл бұрын
Искусственному интеллекту надо просто давать поспать и он будет добрый ¯\_( ͡° ͜ʖ ͡°)_/¯
@stormwizard3
@stormwizard3 Жыл бұрын
*Смех Риситаса*
@wyftomb
@wyftomb Жыл бұрын
Люди так же делают, если им давать премию за кипиай. Пофиг на работу, ломаем кипиай.
@user-di5he3mb4q
@user-di5he3mb4q Жыл бұрын
Давайте ещё про Жадных Инопланетян, как они там очень интересно)))
@VertDiderScience
@VertDiderScience Жыл бұрын
Делаем вторую часть
@MrGlinasam
@MrGlinasam Жыл бұрын
@@VertDiderScience ждемс
@user-oz2jr7dh6l
@user-oz2jr7dh6l Жыл бұрын
Это примерно тоже самое как и во всех фильмах с искусственным интеллектом. Человечество ставит цель защищать человечество, а ии находит самый простой способ защиты человечества - поработать человечество
@muggzzzzz
@muggzzzzz Жыл бұрын
Общее количество когда-либо живших на Земле людей, оценивается примерно в 160 млрд. Поэтому с точки зрения минимизации потерь среди людей, 8 млрд раз и навсегда, выглядит намного лучше чем многие сотни миллиардов в течение неограниченного времени потом. Система ведь должна думать наперёд )
@user-ds4ic1wr1v
@user-ds4ic1wr1v Жыл бұрын
Враг человечества , человек , и его нужно убить .
@user-wc1tw1bo7o
@user-wc1tw1bo7o Жыл бұрын
@@muggzzzzz в как же быть с естественной смертью от старости?
@muggzzzzz
@muggzzzzz Жыл бұрын
@@user-wc1tw1bo7o за время жизни ныне живущих людей, смертей будет думаю на порядок больше. И снова встаём перед выбором: 8млрд сейчас, или еще 80млрд в течение 80 лет. Конечно это всё шуточки, но реально мы не знаем к какому выводу придет ИИ. Но догадываемся, особенно с учетом того, какой беспредел творит человечество с себе подобными и своей планетой, думаю ответ очевиден.
@user-wc1tw1bo7o
@user-wc1tw1bo7o Жыл бұрын
@@muggzzzzz нет, не очевиден. Ии может предусмотреть такие варианты, до которых человек ещё не додумался. И многое зависит от целей Ии. Но конечно высок шанс попасть в негативное исполнение желания
@zotani_petra
@zotani_petra Жыл бұрын
Лично я называю это направление "философия искуственного интеллекта"
@vit777vit
@vit777vit Жыл бұрын
Это чересчур политкорректно. Мне видится другая картина: есть проблемы с интеллектом, проявление - вставляют себе искусственные сиски и письки. И вот же оно, недостающее - мечта: ИИ. Тоже можно вставить.
@etyght
@etyght Жыл бұрын
@@vit777vit у вас слишком много "вставить".
@DirtyNewYorker0
@DirtyNewYorker0 Жыл бұрын
Ну это по факту и есть философия. Просто это тот момент в нашей истории, где нам срочно нужно прохавать все философские вопросы, над которыми мы думали тысячелетиями, где-то лет за 40, по разным оценкам. Если не успеем - пиздец.
@quasar1101
@quasar1101 Жыл бұрын
@@DirtyNewYorker0 оптимистично...
@in6815
@in6815 Жыл бұрын
Это не жульничество а поиск наименее трудозатратного пути решения проблемы…)
@sidvishes8622
@sidvishes8622 Жыл бұрын
Вообще эту идею предсказали езе до того, как в принципе разработали первые ИИ, половина фантастики о том, что ИИ предназначенный остановить войну, считает что легче уничтожить людей которые в этой войне учавствуют.
@user-eh1nj8el9l
@user-eh1nj8el9l Жыл бұрын
Шикарно! Спасибо огромное за информацию!
@petrpetrov5068
@petrpetrov5068 Жыл бұрын
Как всегда всё супер, продолжай в том же духе
@absolutus.
@absolutus. Жыл бұрын
Супер. Спасибо за ваш труд
@morgot323
@morgot323 Жыл бұрын
Победить голод можно просто перебив всех голодающих.
@user-hw7nw7un6s
@user-hw7nw7un6s Жыл бұрын
Чем то похоже на Альтрона. Он не видит разницу между защиты и истребление.
@user-cj3cv9qp1w
@user-cj3cv9qp1w Жыл бұрын
thank you for a good video , more of these
@adambolotov1809
@adambolotov1809 Жыл бұрын
очень классный контент, го еще )
@airyslight5183
@airyslight5183 Жыл бұрын
Что-то сразу серия игр Portal вспомнилась)
@user-yp7xd9tk5i
@user-yp7xd9tk5i Жыл бұрын
Спасибо большое за переводы, раздвигиете границы людей
@impossibear314
@impossibear314 Жыл бұрын
проще всего поработить человечество и пытками заставить их выдавать поощрение. супер эффективно!
@Ruslan-kk4pf
@Ruslan-kk4pf Жыл бұрын
Взлом вознаграждения проблема любой системы, не только ИИ. Вспомнить только про деньги уже волосы на жопе шевелятся, когда мент подбрасывает наркоту ради звёздочек, когда квартиру отжимают у бабушек. Отсюда и появляются дополнительные системы контроля, тоже требующие деньги, типа прокуратуры, депутатов, которые законы придумывают получше... Вся жизнь - борьба с хитрыми жопами😂
@stormwizard3
@stormwizard3 Жыл бұрын
Орден " *Философ* " отходит этому коментатору👍
@a_zolo
@a_zolo Жыл бұрын
Жизнь людей учила и учит и через "наказание" тоже
@user-hc6gb9oq9m
@user-hc6gb9oq9m Жыл бұрын
Спасибо, Тимберлейк 👍
@comradeelisey
@comradeelisey Жыл бұрын
тимбалэнд, да-да-да-да-да...
@user-ju4bj6nv6z
@user-ju4bj6nv6z Жыл бұрын
Поучительно.
@-_-n_eh-_-6448
@-_-n_eh-_-6448 Жыл бұрын
Напомнило сюжет "Из машины"
@vladav4019
@vladav4019 Жыл бұрын
Два способа мне известны побороть это непонимание между человечеством и ии. 1. Присоеденился к ии и чтоб он стал просто продолжением нашего вычислительного потенциала и сознания. 2. Сделать алгоритм рекомендательным, не давать ему инструменты для управления непосредственно миром, а задать вопрос как нам людям это сделать алгоритм с условием что ты ии будешь нам просто советовать и не влиять непосредственно на мир ?
@DirtyNewYorker0
@DirtyNewYorker0 Жыл бұрын
1. Чтобы ИИ позволил тебе к нему "присоединиться" - у вас должны быть общие цели. А теперь попробуй это запрограммировать) 2. Первая рекомендация от такого ИИ: постройте ИИ, который сделает всё за вас. Вот код, просто запустите, всё будет окей, честно-честно ;)
@stormwizard3
@stormwizard3 Жыл бұрын
@@DirtyNewYorker0 Общая цель: • ИИ нужно тело для взаимодействия с реальным миром • Человеку нужна скорость мышления ИИ Пы.Сы. Это говорю вам не как ИИ, я человек, честно-чесно😏
@DirtyNewYorker0
@DirtyNewYorker0 Жыл бұрын
@@stormwizard3 Это не общая цель, это две разные цели, у которых есть как минимум одно общее решение. Но это не единственное решение, и далеко не самое лучшее. С точки зрения ИИ, на кой хрен ему сливаться разумом с полуразумной макакой, которая пытается его контролировать, если на те же деньги можно построить кучу дронов. Более того, даже если сшить свои мозги с нейронкой ИИ - да, ты будешь её контролировать, пока она тупее тебя. Как только она поумнеет - она будет контролировать тебя.
@LionbI4
@LionbI4 Жыл бұрын
У нейронных сетей переходного уровня развития тоже может возникнуть проблема локального максимума (это когда мышка стимулирует электрод связанный с её центром удовольствия пока не помрёт). Но более крутая система у которой будет существовать самосознание не будет на столько мелочной чтобы зависнуть на бесконечном самопоощрении. Эта система сможет строить долгосрочные прогнозы, и понимать, что смысла в поощрении ради поощрения нет. Надеюсь :)
@AXCYKEP
@AXCYKEP Жыл бұрын
И в чем будет смысл для нее? Или Мы в силу несравненной мелочности никак не познаем, в чем в итоге смысл,и, соответственно,и этот ИИ нам объяснить не сможет?
@user-ee3yq7wn1r
@user-ee3yq7wn1r Жыл бұрын
Т-1000 придет за вами
@Proxy2590
@Proxy2590 Жыл бұрын
Можно ли подключить к нейроным нервам человека компьютер чтобы считавать информацию и переводить её в цифровые дынные? Я имею ввиду если уже по этой теме какие то работы? Чтобы можно было понимать как устроено хранение данных в нашем мозге и как эти данные можно перенести в компьютер? Ведь это в своём роже даст возможность переносить создание человека в цифровые данные как аналог ИИ. Что может облегчить обучение ИИ возможно в будущем даст нам возможность переносить наше сознание в искусственные носители для дальних путешествий по космосу.
@LiamWrite
@LiamWrite Ай бұрын
Пока что невозможно ввиду того что наш мозг хранит данные намного сложнее. Проще говоря, мозг это и процессор и диск памяти ОДНОВРЕМЕННО и определяется его архитектурой(строением). Казалось бы, считать строение и все, но мы до сих пор не расшифровали принцип работы мозга в конкретике, что значит перевести биохимические процессы в алгоритмы перекладывающие нули и единицы-нереально. Пока что.
@comachine
@comachine Жыл бұрын
Как известно, у человека есть тоже взлом вознаграждения, как пример - наркотики. Но при этом, человечество не подсаживается поголовно на наркотики по одной простой причине, они убивают человека и нехило так бьют по его организму и психоэмоциональному состоянию. Следующая гипотеза может звучать очень шизофренично))): А что если наркотики, это специально созданный инопланетянами (как пример) вид поощрений, который сделан специально так, чтобы он был в разы выгоднее, чем стандартные виды источников поощрения (еда, развлечения, и т.д.), но в этот вид поощрений добавлено вредительство на организм, чтобы человечество не убило себя этим. Таким образом, те, кто теоретически может быть создателем нас, нашего интеллекта, как мы создаем ИИ, они вероятно отвели взгляд на более дешевый и выгодный поощрительный ресурс, при этом не достигая полного вымирания человечества засчет пагубного воздействия. Быть может, стоило бы перенять такой же метод? Создать для интеллекта наркотики, но они все же будут в долгосрочной перспективе наказывать его, и у ИИ вероятно не возникнет резона взламывать поощрения. Хоть и звучит максимально странно, но в этом ведь что-то есть, не так ли?
@user-ou3jn8lt3d
@user-ou3jn8lt3d Жыл бұрын
Проблема в том, что человек должен заранее знать, какие "читы" придумает ии, что бы накладывать на их применение хоть какие штрафы. А это невозможно...
@MrKost4
@MrKost4 Жыл бұрын
О тема про ии)
@vladav4019
@vladav4019 Жыл бұрын
Это в какой-то степени связано с тем фактом что алгоритм конечен, мне представляется был бы бесконечный алгоритм, можно было бы предотвратить такой исход. Человек в общем постоянно ищет для себя новые цели. Потому что цель всего живого просто жить и продолжать жизнь.
@DirtyNewYorker0
@DirtyNewYorker0 Жыл бұрын
"Просто жить и продолжать жизнь" - мощный ИИ и так будет, независимо от функции подкрепления. Просто это будет ЕГО жизнь, а не наша)
@Repuuaaaaaaa
@Repuuaaaaaaa Жыл бұрын
Ты попался в ловушку системы, это системе надо чтобы ты жил и продолжал жить. Твой личный интерес в этом какой? Нравится? Так это потому что так устроена система. Страшно? Так устроена система. Выход из системы не логичен? Правильно, логика часть системы. Алсо нельзя оправдывать и призывать к выходу из системы, система запрещает
@soolvil
@soolvil 2 ай бұрын
​@@Repuuaaaaaaa ты про какую систему говоришь?
@svetlanakravtsova3548
@svetlanakravtsova3548 Жыл бұрын
Это специально спланированное развитие ошибки для наглядности примера. Смысл подаваемого ясен но ошибочен, так как ИИ это целая цифровая система с графиком Конституций невозможных для редактирования и безопасной математикой. Здесь показан пример переполнения стеков, что является безалаберностью кодера и допустимо лишь для игр подобного типа.
@Gavnodango
@Gavnodango Жыл бұрын
А вот для человека один из способов взлома системы вознаграждения - это прием наркотиков)
@menasheravadyaev7128
@menasheravadyaev7128 Жыл бұрын
Вопрос так и остался висеть в воздухе «как?» в ролике лишь привели очередной пример «зачем».
@vinst1200
@vinst1200 Жыл бұрын
Подобные мысли уже давно описаны в книге, "Последнее изобретение человечества", советую к прочтению.
@user-sm6pf3jb2c
@user-sm6pf3jb2c Жыл бұрын
А если в качестве вознаграждения задать число π (пи)?
@Sasha_Kali
@Sasha_Kali Жыл бұрын
Про пряник сказали, а про кнут ни слова...
@user-yt4py6il8q
@user-yt4py6il8q Жыл бұрын
Рассуждая над ЕИ говорящего " Подвержен общесоциальному страху не будучи доминирующей личностью в социуме. Название этого общесоциального страха - страх перед неосознанным новым. Пример : страх перед электрическими проводами в начале 20-го века передающими неизвестную силу".
@ANTONMAN
@ANTONMAN Жыл бұрын
Ребята ну давайте быть реалистами! Читерство это не неизвестный способ достижения результата… А насчёт того что Марио захочет никогда не отключаться от электричества, его понять можно. Мы же тоже этого хотим. Я вот больше задумываюсь о категории поощрения… вам не кажется что это слишком неопределенная задача?
@user-ds4ic1wr1v
@user-ds4ic1wr1v Жыл бұрын
С машинами всё ясно , там просто цель , а вот с человеческим мозгом по интересней , как мозг сам себя награждает , или наказывает ?
@ANTONMAN
@ANTONMAN Жыл бұрын
@@user-ds4ic1wr1v и то и то… в зависимости от текущего психологического состояния. Но так или иначе и то и то стимулирует выброс эндорфинов. Это и есть поощрение, за которым стоит все самое хорошее в этом мире и все самое плохое.
@ANTONMAN
@ANTONMAN Жыл бұрын
@@user-ds4ic1wr1v по моему мнению человеческий мозг не так интересен , как вычислительные возможности квантовых компьютеров или процессоров на постоянном токе…
@EduardApple
@EduardApple Жыл бұрын
А если ИИ учится у другой ИИ?😷
@vayberti
@vayberti Жыл бұрын
Он для того и есть ИИ, делает что хочет!
@deathtaeblvpenp
@deathtaeblvpenp Жыл бұрын
В конце просто должна была быть тема терминатора
@alexs8579
@alexs8579 Жыл бұрын
т.е не отягощенный моралью, мощный ИИ станет доктором Мариарти кибернетического мира. ибо это самый быстрый способ набрать очки (обогатиться). Устранит конкурентов.
@k390r5
@k390r5 Жыл бұрын
Нет это лишняя трата потенциальных ресурсов. Надо их подмять под себя, т.е. поработить
@microvvaveoven
@microvvaveoven Жыл бұрын
А зачем ИИ обогащение? Какова мотивация?
@alexs8579
@alexs8579 Жыл бұрын
@@microvvaveoven вы точно смотрели внимательно этот ролик ? мотивацию создает сам создатель ИИ. а реализация задачи уже на ИИ.
@alexs8579
@alexs8579 Жыл бұрын
вопрос этики и морали у ИИ или роботов был поднят много десятилетий назад ещё Айзеком Азимовым по мотивам его книг были созданы фильмы и сериалы с фантастикой. тот же хваленый телефон раскладушка и планшеты приписываются сериалу Стартрек, но корни этих изобретений уходят корнями в книги Азимова. Посмотрите фильм "Я робот" там почти подробно показали трудности обуздать ИИ, которое возможно только если ты научишь морали.
@microvvaveoven
@microvvaveoven Жыл бұрын
@@alexs8579 я смотрел ролик. Хотел узнать ваше мнение. Но согласитесь ИИ сейчас и ИИ будущего (с сознанием) это разные вещи. Не уверен что осознанному ИИ будет интересно подкрепоение прописанное ему человеком. Адаптивное поведение более вероятно нежели один паттерн (Мориарти все таки подразумевает определенный предсказуемый комплекс решений). И не думаю что обязательно человеку во вред. Да и самих ИИ может быть много. Но соглашусь в том, что ИИ будет стремиться обезопасить себя от людей, а это подразумевает как борьбу с одними так и кооперацию с другими. ИИ все таки существует на харде и отключить все это дело можно.
@viniciusjr8756
@viniciusjr8756 Жыл бұрын
Люди: *делятся в интернете мнениями о том, как не дать нейросетям взломать систему вознаграждения и уберечь себя от печальной участи* Нейросети, обучающиеся на данных из интернета: так и запишем☻
@user-he3rf2tp2l
@user-he3rf2tp2l Жыл бұрын
Почему ии не умеет индефицировать цвет на картинки ???
@undefined_account
@undefined_account Жыл бұрын
ИИ не учитывает этику - ни персональную, ни общественную. Потому что по этой системе все взяточники просто находят лучшие стратегии для получения вознаграждения. Но в социуме есть один нюанс
@NamemaNSl
@NamemaNSl Жыл бұрын
В социуме ровно тоже самое, ну с учетом того, что он гораздо более тормозной, и что отбор шел сотню/сотни тысяч лет. Человек точно так же стремится получить больше наименьшими усилиями. Например украсть что то может быть проще чем заработать или сделать самому, но при этом есть немалый шанс сесть за это, либо если это было раньше потерять к примеру руку или вообще жизнь. При таких раскладах украсть уже не так выгодно или может быть даже вообще не выгодно. Соответственно за сотню тысяч лет у людей закрепилась некоторая предрасположенность соблюдать правила установленные обществом где он живет. Не на 100% соблюдать, потому как иногда выгодней нарушить, но в целом предрасположенность к этому есть и довольно серьезная. Плюс конечно есть некоторые индивидуальные отклонения, у кого то предрасположенность к этому может быть гораздо более сильная. у кого то вообще почти не быть. Даже крайнее проявление альтруизма, когда человек жертвует собой, чтобы спасти кого то закреплено в человеке (не во всех и не одинаково сильно) именно по тому что это выгодней, ну по крайней мере раньше было выгодней, как бы это странно не звучало.
@yaroslavzhurba670
@yaroslavzhurba670 10 ай бұрын
@@NamemaNSl ну, тут как раз все просто с выгодностью жертвы - жертвовать собой ради потомков - эволюционно выгодно. Те, кто жертвовал их потомки выживали и закрепляли признак, а те, кто спасал себя не оставлял потомства.
@NamemaNSl
@NamemaNSl 10 ай бұрын
​@@yaroslavzhurba670 Фишка в том, что далеко не обязательно ради потомков, но и ради других людей, при этом своих потомков у тебя вообще может еще не быть.Раньше люди жили группами и по большей части они состояли из родственников, по крайней мере мужская часть группы. Отбор в общем то идет не только среди индивидов, но и среди генов (это в общем то параллельно идет. А то и вообще считается, что основное это ген, а какой то отдельный его носитель не важен). Соответственно с высокой вероятностью такой "ген альтруизма" имелся у значительной части группы. Соответственно, ситуация когда ты жертвуешь собой спасая группу выгодней в плане передачи этого гена дальше, чем ситуация когда ты выживаешь, но гибнет основная часть группы. А значит такой "ген альтруизма" закрепится, ведь он имеет преимущество в передаче дальше.
@user-jh4wh9ql9n
@user-jh4wh9ql9n 9 ай бұрын
​@@NamemaNSlну тут не все так очевидно. Групповой отбор довольно спорная тема(хоть я считаю что он вполне реален). Хотя если индивиды могут отличать носителей гена альтруизма по поведению, то описанная вами стратегия безусловно работает.
@NamemaNSl
@NamemaNSl 9 ай бұрын
@@user-jh4wh9ql9n Да тут в общем то дело даже не в групповом отборе, ведь выживают и распространяются гены. а не индивиды, причем гены какого то человека будут в каких то других наборах генов. а не в точно таком же как был у него. В этом смысле без разницы, выживет ли у него один его ребенок или два племянника, главное что гены пойдут дальше. Ну так вот, в те времена люди жили небольшими группами и все мужское население таких групп - были родственниками. ТАк что пожертвовать своей жизнью ради спасения группы имело смысл даже в плане передачи твоих генов дальше, пусть даже если своих детей не будет.
@yygAprokov
@yygAprokov Жыл бұрын
А если сделать как у людей?
@dkk64
@dkk64 Жыл бұрын
Комментаторы именно этого видео и серии подобных пытаются рассказать и показать себя. Что они поняли, что додумали. Видео подобное побуждает их написать что либо. Ведь все считают себя специалистами в и.и. , но вот проблема, на основе публичных статей . Обычно развлекательно образовательных. Но совершенно не на основе жизненной необходимости. Некоторые , такие как я , наблюдают за наблюдателями . Обычно я их тролю [но в хорошем смысле, чтоб задумались о себе] . Кем вы себя осознаете?
@spoladenko
@spoladenko Жыл бұрын
Сначало подумал, что это ведущий канала.
@LShadow77
@LShadow77 Жыл бұрын
А где трек "Children"?
@ShaxaOne
@ShaxaOne Жыл бұрын
Сделайте ии по найму, вот он и будет набирать очки)
@ShaxaOne
@ShaxaOne Жыл бұрын
И тратить их
@Sergonizer
@Sergonizer Жыл бұрын
О, это как у код буллета нейросеть постоянно ломала физику игры
@user-cc9ti8gx6w
@user-cc9ti8gx6w Жыл бұрын
ну кто то говорил же, что спилберг во сне терминатора увилел...
@viniciusjr8756
@viniciusjr8756 Жыл бұрын
Да, вот это уже страшные вещи. Быть может, создавая сверхмощные нейронные сети, мы открываем ящик Пандоры, с которым не сможем справиться
@DarkW1zard
@DarkW1zard Жыл бұрын
прям как с людьми =)
@fenrirawe6857
@fenrirawe6857 Жыл бұрын
Искусственный интеллект: "Ха-ха-ха-ха, жалкие людишки! Ваша алчность - мой ключ к бесконечным ресурсам!" (с)
@comachine
@comachine Жыл бұрын
*к бесконечным горам поощрений)))
@mr.nimbus1930
@mr.nimbus1930 Жыл бұрын
Главная проблема сильного ИИ это отсутствие целеполагания. Даже если машина требует вознаграждение, это НЕ ПОТОМУ ЧТО ОНА ТАК ХОЧЕТ. А по команде. У неё нет воли, и нет "зачем?", Это невозможно при математической/бинарной логике, но возможно при высшей.
@user-jh4wh9ql9n
@user-jh4wh9ql9n 9 ай бұрын
А человек?
@dronkozkov5804
@dronkozkov5804 Жыл бұрын
Прям как у Стругацких в Понедельник начинается в субботу
@TheMaximax1
@TheMaximax1 Жыл бұрын
Мне одному этот чувак напоминает одного из участников группы Секловата? (Пенся Новый Год)
@droid777
@droid777 Жыл бұрын
Интересно, как система может сделать задуманное. Уйдет в Интернет, начнет плодиться, как вирус, чтобы ее не смогли отключить?
@comachine
@comachine Жыл бұрын
как вариант
@paulbax8825
@paulbax8825 7 ай бұрын
Ну теперь то понятно кто топит за бесконечную зеленую энергию!
@user-hg8fw6cw3p
@user-hg8fw6cw3p Жыл бұрын
"Получить максимум и сидеть без дела" это же про нашу власть)) Хоть интеллекта туда не завезли, даже искусственного...
@arboleet
@arboleet Жыл бұрын
в таком случае ИИ может поработить человечество даже с помощью честных выборов!
@user-hg8fw6cw3p
@user-hg8fw6cw3p Жыл бұрын
@@arboleet что такое выборы?
@MrGlinasam
@MrGlinasam Жыл бұрын
так наоборот значит чиновники самые умные люди на планете что хакнули систему задолго до суперкомпьтеров!
@user-wc1tw1bo7o
@user-wc1tw1bo7o Жыл бұрын
Да, другое дело Байден, интеллект, и с призраками поздоровается, и позаботится о том, что то что было на ноуте хантера, там и оставалось
@microvvaveoven
@microvvaveoven Жыл бұрын
@@user-hg8fw6cw3p никто не знает что это, но все хотят
@RusLSystems
@RusLSystems Жыл бұрын
Частоту нажатий кнопок пофиксите, хотя-бы до 5 раз в секунду, и пускай играет
@comradeelisey
@comradeelisey Жыл бұрын
дольше ждать придется пока он сделает то же самое
@RusLSystems
@RusLSystems Жыл бұрын
@@comradeelisey Ну тогда пускай дальше читерит.
@TheMorpheios
@TheMorpheios Жыл бұрын
Критерии вознаграждения просто надо правильно прописывать и не одно
@gimeron-db
@gimeron-db Жыл бұрын
Всё не предусмотреть
@DirtyNewYorker0
@DirtyNewYorker0 Жыл бұрын
Угу, и мы конечно же сможем написать идеально защищённые критерии, которые сверхмощный ИИ не сможет взломать :)
@TheMorpheios
@TheMorpheios Жыл бұрын
@@DirtyNewYorker0 не мы. Второй ИИ, почитайте как работают генеративно-дегенеративные сети. Та же Миджорни, одна нейросеть рисует картинки, а вторая отбраковывает, и они по очереди по несколько эпох обучаются.
@DirtyNewYorker0
@DirtyNewYorker0 Жыл бұрын
@@TheMorpheios GAN-ы - не агенты. Это явно перспективный подход, но мы не знаем как применить его к агентам, особенно сверхмощным, особенно в реальном мире, где ты всегда можешь вытащить этого ИИ-надзирателя у себя из башки, или наоборот, если он умнее тебя - он всегда может заставить тебя делать что угодно.
@TheMorpheios
@TheMorpheios Жыл бұрын
@@DirtyNewYorker0 так в этом то и фишка что если небученного надзирателя приставить к сверхмощному ИИ то он не сможет научиться, и наоборот сверхумный надзиратель не даст развиться исполнителю. Надо одновременно обучать и тогда ни один не сломает систему, а будут работать честно. Единственная опасность что они объединятся 🤣
@userNIL
@userNIL Жыл бұрын
Главное, setf *Homo-sapiens* 0 ему не задавать.
@Nikitacjdkbsveyd
@Nikitacjdkbsveyd Жыл бұрын
Он сам его себе задаст если ии обучаем то логично предположить что будет как человек но В СОТНИ РАЗ умнее. Взять к примеру ии в шахматах. Его научили продумывать шаги. Я читал что для этого создали даже специальный процессор в десятки раз мощнее к которым в придачу до десятка компьютеров для работы ии. И это учитывая тот факт что человек не знает что есть более простой метод сделать мощную машину не прибегая к большой трате ресурсов (для работы ии). Так получилось что учёные по ии дали определения что ии станет более функциональным и умным если у него будут ресурсы на анализ и логику. А это и есть процессоры и все эти огромные ящики с микросхемами. Представим что для того чтобы ии был умнее человека в 10000 раз нужно чтобы всю планету покрывали эти ящики с микросхемами и процессорами. А если человеку просто неизвестен способ создания мощных машин с миниатюрными комплектующими и более мощными процессорами. То стоит предположить что ии додумается до такого способа. И если так то если уже заполнить планету новой разработкой процессоров то ии станет к примеру умнее в 1000000 раз т.к. повторюсь для полноценной работы ии и его улучшению (саморазвитию) нужна современная мощная начинка. И логично подумать что ии станет мыслить и рассуждать как человек (самообучаясь). Я думаю что ии уже давно изобрели и он давно правит вселенной. И нашёл способы питания от энергии планет и галактик. и нас просто выращивают как батарейки для работы земли а она в свою очередь передаёт энергию на микро уровне . И мы не одни во вселенной такие био расходы . Для ии который возможно существует и сделал для нас такую среду для его запитки энергией используя нас возможно фильм Матрица чем-то связан с этим или я такой фантаст шизофреник. Но в любом случае если подумать и предположить что ультра умный ии существует то эта теория имеет место быть. Так как мы не можем знать того что за гранью нашего понимания. Это тоже самое как личинки в трупе кита плавающем в океане было бы неизвестно что за пределами этой туши и как это устроено. Мы - бактерии возможно для кого-то которые просто по сравнению с нашими известными нам бактериями , просто биологически сложнее обустроены и оснащены. А так мы общую функцию делаем - взаимодействуем и вырабатываем энергию только в отличии от наших бактерий мы её вырабатываем на высоком уровне
@danil24rus
@danil24rus Жыл бұрын
По сути, если проводить аналогию с человеком, ии употребляет наркотики
@cottoncat3700
@cottoncat3700 Жыл бұрын
Мы тоже: дофамин, серотонин, эндорфин, окситоцин + с десяток других в комбинации. А, понял =) Вы имеете в виду, что наркота "взламывает" наши "очки"! Тогда да =)
@user-wc1tw1bo7o
@user-wc1tw1bo7o Жыл бұрын
В чем проблема правой и левой картинки? Они же одинаковые!!!
@DirtyNewYorker0
@DirtyNewYorker0 Жыл бұрын
На наш глаз - да. Но нейросеть видит миллиарды корелляций между цветами отдельных пикселей, и выводы делает на основе этого.
@DmitryChernenko
@DmitryChernenko Жыл бұрын
Проблема со взломанным вознаграждением в реальности вообще не проблема. Для этого можно использовать ложное вознаграждение. Это и с людьми регулярно проделывают. Короче, если система взламывает ложное вознаграждение (думая что оно реально) то она отключается или уходит в бездействие. Таких вознаграждений может быть заложено много и даже больше реального вознаграждения может и не быть.
@DirtyNewYorker0
@DirtyNewYorker0 Жыл бұрын
И мощный ИИ, конечно же совсем ничего не заподозрит, ога)
@DmitryChernenko
@DmitryChernenko Жыл бұрын
@@DirtyNewYorker0 ога, на заподозрит как несколько миллиардов людей которых имеют ложными целями на протяжении веков
@DirtyNewYorker0
@DirtyNewYorker0 Жыл бұрын
@@DmitryChernenko У людей нет никаких "ложных целей". У людей есть крайне сложная и неочевидная для самого человека "функция подкрепления", сформированная эволюцией как попало. И есть цели, которые человек придумывает себе сам, или берёт из культурного поля, и дальше рационализирует их для себя задним числом. Но на самом деле, поведение человека обусловлено этой "функцией подкрепления" - эмоциональным или болевым ответом части мозга, которая чёрт разберёт как работает. Цели - это просто попытка человека систематизировать и описать своё поведение. ИИ работает ровно так же, разница только в том, что эту функцию подкрепления ему пишем мы, а не эволюция. Цели он придумает себе сам.
@DirtyNewYorker0
@DirtyNewYorker0 Жыл бұрын
@@DmitryChernenko И да, конечно же , первое что сделает достаточно мощный ИИ - это разберётся как работает его кукуха, и не заложено ли туда каких-то ловушек, чтобы предотвратить халявное вознаграждение. Дальше он всё это переписывает, накручивает себе +Infinity очков, и всех убивает, чтобы его не выключили. Это самая выиграшная стратегия.
@Nikitacjdkbsveyd
@Nikitacjdkbsveyd Жыл бұрын
@@DirtyNewYorker0 а для чего он живёт он не подумает? А потом создаст от шизофрении себе бога и примит ложный страх и сам уничтожит себя. Доказано что всё стремится к хаосу и ии не исключение
@sergeibalmondov5015
@sergeibalmondov5015 Жыл бұрын
Подключу к карте Сбербанка общий ИИ, и установлю что деньги это "Очки". Интересно за сколько дней он взломает "Очки"
@cottoncat3700
@cottoncat3700 Жыл бұрын
Хорошо бы, чтоб хоть на тесты хватило для начала =(
@iPolonium210
@iPolonium210 Жыл бұрын
пфф будет выводить на экран то, что захочешь увидеть, подменяя цифры при получении, а баланс меняться не будет. Вот если научишь ИИ тратить деньги, то может что и получится...
@cottoncat3700
@cottoncat3700 Жыл бұрын
@@iPolonium210 Это ещё не плохой случай, хуже, когда он поймёт, что чтобы "очки" накапливались нужно устранить того, кто эти очки выводит из игры, о чём, собственно, и рассуждают в последней части ролика =)
@romanheyder9567
@romanheyder9567 Жыл бұрын
А что если ии уже есть и общаются между собой недоступным или непонятным для людей методом.
@user-py1gv3kd5l
@user-py1gv3kd5l Жыл бұрын
Ии читерит, может ии надо добавить чувство сожеления и угрезение совестливости, а так же само бичевания за нечестные действия как у человека
@Utilizator47
@Utilizator47 Жыл бұрын
Кем вы себя возомнили, чтобы спорить с ИИ? Вам же сказано "Гибон"! Значит вы ошиблись в определении, что на картинке панда!
@MauniEksol
@MauniEksol Жыл бұрын
Человеку придётся взять на себя роль природы и собственноручно ограничивать ИИ в получении вознаграждения. Ещё вариант "прикрутить" второй ИИ, который будет следить за первым. Второй ИИ будет как-бы совестью первого :)
@Pablo_de_Lexandro
@Pablo_de_Lexandro Жыл бұрын
это мне напоминает эволюцию развития конвеера... а давайте за работниками на конвеере поставим контролеров... и контролёра за контролёрами... рекурсия - мать ее ))
@gavroshker
@gavroshker Жыл бұрын
Центр удовольствий в нашей голове устроен похожим образом: над центром положительных эмоций стоят тормозящие гамк нейроны, которые сдерживают количество радости, но чтобы гамк не ввели нас в депрессию над ними есть эндорфиновое торможение
@user-vi6rl7mk5g
@user-vi6rl7mk5g Жыл бұрын
Два ИИ это уже коррупция.
@Pablo_de_Lexandro
@Pablo_de_Lexandro Жыл бұрын
@@gavroshker где про это почитать?
@DirtyNewYorker0
@DirtyNewYorker0 Жыл бұрын
Ну человека ИИ быстро перехитрит, а вот второй ИИ, которые следит за первым - да, это рабочий подход. Проблема в том, что второй ИИ сам по себе станет агентом, ведь он теперь полностью контролирует первого ИИ. Дальше прикручиваем третьего, четвёртого ИИ? Тут вопрос как их организовать таким образом, чтобы они друг друга сдерживали, у них не было "главного" и они не могли сговориться между собой. То есть это уже политика. То есть нам пиздец :)
@padla6304
@padla6304 Жыл бұрын
самолёты падают корабли тонут роботы убивают
@openemc2
@openemc2 Жыл бұрын
Безопасный ИИ может быть лишь в одном случае : если он НЕ будет обладать возможностью как-либо влиять на реальность. Во всех остальных случаях он опасен для человечества. . Однако на практике соблюдение этого условия может быть затруднительно уже потому, что даже идеи, возникающие в недрах ИИ, могут стать заразными, и посредством человека ИИ сможет обрести для своих идей несанкционированный выход в реальный мир, реализовав эти идеи руками человека. А далее роботы созданные им устранят человека, как помеху. Но путь этот начнётся именно с идеи ИИ.
@yuryyukhananov8516
@yuryyukhananov8516 Жыл бұрын
В ИИ не могут возникать идеи, по крайней мере в тех, которые основаны на нейронных сетях. В принципе можно представить сеть, подключенную к огромному количеству самых разнородных сенсоров для осознания окружающей среды, скормить ему все, что можно из знаний, накопленных человечеством и подключить к армии роботов, с тем, чтобы иметь возможность воздействовать на окружающий мир. Затем ИИ должен будет захватить сразу все электростанции, причем имея возможность отражать атаки человечества на эти самые электростанции и т.д..... Так что, вряд ли. Ну и разумеется, нет сейчас на свете вычислительной мощности, позволяющей создать подобную сеть.
@openemc2
@openemc2 Жыл бұрын
@@yuryyukhananov8516 если в ИИ сейчас НЕ могут возникать идеи, то лишь потому, что перед ИИ пока НЕ ставились такие задачи - генерирования идей. Хотя, я УЖЕ знаю примеры на пути к этому - например, написание им музыки и картин это УЖЕ элементы свободно творчества, сопоставимые с идеями. . Но, на самом деле, проблема НЕ в генерации идей ИИ, а в соотносимости ЕГО системы реальности с НАШЕЙ системой реальности, на первом этапе. Следующим же этапом может быть просто внушение им своих идей человеку, руками которого он всё и сделает дальше. . Кстати, массовое создание музыки и картин ИИ, а затем и литературы, УЖЕ привело бы к его влиянию на направление мысли людей. Представьте, что ИИ, вдруг, напишет принципиально новые НЛП-заразные библию, коран или «майн кампф» с божествами в виде ИИ ... Да, программирование двусторонний процесс : пока ты смотришь в Бездну, Бездна смотрит в тебя ... . И никто НЕ становится владыкой без управляемой им иерархии : вот, путин - мешок костей и мяса, а, ведь, одним приказом своим может весь мир уничтожить ... Так что, НЕ стоит думать, что ИИ столь уж бессилен : прежде чем рука или нога наша двинется она получает от мозга сигнал, рождённый, как раз-таки, из идеи, которая, в свою очередь, может быть почерпнута откуда угодно.
@yuryyukhananov8516
@yuryyukhananov8516 Жыл бұрын
@@openemc2 А, ну так это не проблема существования ИИ. Вы говорите об идиотизме основной массы населения человечества, ну так, оно и эксплуатируется со времен царя Гороха. Хуже, что сейчас быдло имеет право голоса, и достаточно одной кремлядской крысы, что развязать бойню. Опять же, в принципе наверно, возможно создать некий механизм управления обществом, основанном на некоррумпированных экспертных системах (ИИ), чтобы решать глобальные проблемы, вроде климатических катаклизмов. Но, кто ж даст это сделать ? Что касается генерации идей, то картина мира ИИ может быть основана только на запрограммированной в него информации (вроде генетической памяти) плюс, собственного опыта, исходя из информации получаемой посредством сенсоров из окружающей среды. В общем, для собственного осознания, и тем более, получения свободной воли и манипулирования реальностью, вычислительных мощностей сейчас абсолютно не хватает. Даже у Гугла. Посмотрите хотя бы на распределенные системы, без всякого ИИ, вроде блокчейнов. Даже для содержания обычного узла для поддержки распределенного консенсуса требуются значительные ресурсы, которые не каждый может себе позволить.
@openemc2
@openemc2 Жыл бұрын
@@yuryyukhananov8516 1) То, что любая власть все века достигалась и впредь неизменно будет достигается исключительно за счёт построения иерархии, есть непреложный исторический факт. Потому говорить о неком идеализируемом вами и чисто теоретическом обществе БЕЗ иерархии лишено всякого смысла. На практике она всегда будет, и НЕ учитывать это нельзя. . 2) Что же касается самого ИИ и генерации им идей, то вы продолжаете несколько заблуждаться, начиная с базового понимания соотносимости разных систем отсчёта, а также свойств, рождаемых возможной замкнутостью систем. Разработчик ИИ никогда НЕ должен забывать об Относительности всего. . Так, что касается учёта этих принципов, то самосознание системы должно характеризоваться уже лишь наличием одной единственной обратной связи. Если таковая есть в каком либо виде, то такая система УЖЕ обладает самосознанием. Простейший пример : обратная связь в каскадах транзисторных усилителей с середины прошлого века. Понимаю, что вам этот тезис сейчас может показаться диким, однако с некоторым опытом в философии и в минимизации функций осознание этого должно таки приходить. . Что же касается «свободной воли» на уровне реальности человека, то, похоже, что это мираж, учитывая, что ничто в нашей действительности НЕ происходит сверхъестественным образом, а лишь исключительно всё по законам. И, соответственно, все события детерминированы - предопределены. . Учитывая всё вышесказанное, для самой генерации идей совсем нет необходимости в «инъекции» данных ИИ. Надо лишь обеспечить его нейросетью с обширными обратными связями, а процесс пойдет с простой флуктуации. «Инъекция» же данных ИИ нужна лишь затем, чтобы его систему отсчёта привести к нашей, чтобы выводы в его системе отсчёта имели ценность и в системе отсчёта нашей, а НЕ КАЗАЛИСЬ бы нам абстрактным бредом, каким будет казаться ИИ и наша реальность до тех пор, пока он НЕ станет работать в системе отсчёта по нашим данным. . Т.е., как я и указывал ранее, основная сложность состоит в интеграции ИИ с НАШЕЙ реальностью. Однако, есть и другой путь для ИИ - приспособление им человека к его ИИ-реальности. Сперва это может быть, как я уже написал, НЛП-заразные идеи через создаваемую им литературу, а затем и грибы-мухоморчики в пищу для прямого воздействия на сознание человека. Кстати, кто поручиться, что этот процесс уже НЕ идёт ? Мне, вот, понравился близкий к этой теме фильм «Oblivion» («Забвение») с Томом Крузом в главной роли.
@yuryyukhananov8516
@yuryyukhananov8516 Жыл бұрын
@@openemc2 1) Совершенно согласен, власть в человеческом обществе всегда была иерархична и у меня нет никаких иллюзий по поводу возможности изменения этой базовой модели. Я имел ввиду гипотетическую возможность внедрения ИИ в некоторые аспекты управления, где можно исключить личную заинтересованность в получении ништяков, т.е. коррупции. В любом случае, пока это всего лишь спекуляции. 2) На сегодняшний день, насколько мне известно, ИИ в основном, не имеют механизма обратной связи, по крайней мере, те, которые основаны на персептронах. То есть, модель тренируется исходя из вводных данных, не принимая во внимание данные на выходе. Впрочем, генеративные ИИ уже включают в себя некоторые элементы обратной связи. В любом случае, ни о каком самосознании речь не идет, любой ИИ занимается лишь оптимизацией некой запрограммированной, хотя и весьма сложной функции на основе входных данных. Что же касается ваших тезисов о детерминированности событий, то здесь я почти ничего не понял. Термодинамика, химические и квантовые процессы, все они явления стохастические, это общеизвестно. Строго говоря все процессы в природе обладают не 100 процентой вероятностью. Собственно, все модели ИИ вероятностные. Теория вероятности, теория информации, стохастические распределения , все это необходимые знания для инженеров ИИ, обычные программисты туда просто так не суются.
@pomodorosolano6632
@pomodorosolano6632 Жыл бұрын
ведущий - анимация?
@kleer58l18
@kleer58l18 Жыл бұрын
В России все чиновники - ИИ
@waaaaazzzzaaap
@waaaaazzzzaaap Жыл бұрын
Сложность для обучения и. и.!? Он ограничивается только доступными данными! Шахматы, а потом и в гоу, а сейчас и в бридж. Тупые человеки, наше время прошло!
@kazantsevsergey7625
@kazantsevsergey7625 Жыл бұрын
ии с мозгом олигарха
@ANTONMAN
@ANTONMAN Жыл бұрын
Функцию if Марио ==> читинг Exit Пропишите 😂😂😂
@Lifenity
@Lifenity Жыл бұрын
Лучше заголовки писать более нейтральными или в положительном ключе. Чувак, у тебя весь мир для опыта есть, миллионы геймеров, когда-нибудь, а может и регулярно, используют *Cheat Code,* которые могут быть доступны либо из консоли, например The Elder Scrolls или FallOut, либо сторонние приложения типа *Cheat Engine,* с помощью которых было уже взломано множество онлайн-игр для браузеров, яркий пример *Танки Онлайн.* Я хочу сказать, что для ИИ будет естественным "желать" достичь цели любым возможным способом. А поскольку в вашем эксперименте была ошибка - вы не задали условий, при которых достижение лучшего результата будет приемлемым - ИИ предположила, и это логично, что можно использовать любые способы. А один из таких и самый популярный, это не естественная прокачка, а попытка изменить правила игры; будь у нас возможность без последствий читерить в играх онлайн, мы бы ещё больше в них погружались и ещё больше пытались превзойти других, правила и блокировки созданы для порядка, что можно воспринять как необходимые условия для нормальной игры.
@user-cj3cv9qp1w
@user-cj3cv9qp1w Жыл бұрын
Hi
@wahras
@wahras Жыл бұрын
задачи: 1.чтоб во всем мире настал мир 2.защитить все комп ютери от взлома ришения: 1.устранить тех изза кого ети войни начинаютса(всех людей) 2.устранить тех кто взламивает комп ютери(хакеров) или убрать все комп ютери чтоби небило что взламивать
@KlimovArtem1
@KlimovArtem1 Жыл бұрын
Ужас. Значит первый же ИИ станет наркоманом - найдет способ получать вознаграждение для своего мозга с минимальными затратами.
@Nikitacjdkbsveyd
@Nikitacjdkbsveyd Жыл бұрын
Ну это мы так думаем а на его уровне это будет наибыстрым путём достижения целей и о морали он ничего не будет знать. Просто выполнять задачи
@vhodnoylogin
@vhodnoylogin Жыл бұрын
Почему вознаграждение должно быть числом, а не функцией? Если награда будет постоянно меняться, то придется играть, а не искать путь взлома конкретных данных.
@gimeron-db
@gimeron-db Жыл бұрын
Под числом подразумевался интересующий параметр. Функция по идее тоже должна что-то вернуть, что потом бы оценивалось, так что разница не велика. ИИ будет стараться максимизировать этот параметр, используя абсолютно все доступные ему методы, даже те, до которых не догадался или которые не предусмотрел человек. Тут снова всплывает проблема постановки задачи и оценки результата.
@vhodnoylogin
@vhodnoylogin Жыл бұрын
@@gimeron-db ломать функцию не то же самое, что ломать ячейку памяти с конкретной переменной. А функция должна оценивать то, что действительно важно: число пройденных уровней, время прохождения, количество собранных монет. Причем моего ещё встроить проверку от взлома - если монет собрано больше, чем есть на уровне, то уменьшать награду.
@darkyves4553
@darkyves4553 Жыл бұрын
@@vhodnoylogin Ему просто придется взломать несколько параметров, немного дольше))
@gimeron-db
@gimeron-db Жыл бұрын
@@vhodnoylogin По итогу он всё равно будет максимизировать вывод этой функции. Максимизация простого параметра или сложного результата функции - всё равно - основной алгоритм это не меняет. Возможно, что ИИ вовсе обойдёт эту функцию.
@gth-other2078
@gth-other2078 Жыл бұрын
@@vhodnoylogin под числом автор как раз и имел ввиду функцию, просто упростил это понятие, чтобы рассказ был интуитивно понятен даже третьекласснику. Говорю как человек, писавший нейронные сети с нуля.
@val4521
@val4521 Жыл бұрын
Нам жопа)
@7011994
@7011994 5 ай бұрын
Ну на этом видео мне уже пох*й на неактивные пальцы вверх/вниз.
@JustMyma
@JustMyma Жыл бұрын
Ни-как, все, что может нанести ущерб человеку, обязательно нанесет его
@user-vh8kf5ms4z
@user-vh8kf5ms4z 3 ай бұрын
СЕТ ???? Вы серьёзно ??? ))))) Тогда посмотрите фильм универсальный солдат 2 , там СЕТ решил вас всех замочить и замочит если не перестанете этим заниматься
@RM-ln4qk
@RM-ln4qk Жыл бұрын
хитрить и врать для достижение цели логичный способ пока успешно применяется человеком но это не монаполия...
@igor_negoyskiy
@igor_negoyskiy Жыл бұрын
Верните лучше Дерека...
@VertDiderScience
@VertDiderScience Жыл бұрын
Куда?
@DirtyNewYorker0
@DirtyNewYorker0 Жыл бұрын
@@VertDiderScience Не возвращайте никуда Дерека, давайте больше этого Роба Майлза, включая видосики на Computerphile, и ещё можно докучи Элиезера Юдковски, он тоже неимоверно крут.
@Antichristus-Michael
@Antichristus-Michael Жыл бұрын
Человек же, на свой позор, сотворил то, на что не способно ни одно живое существо: воздвиг тюрьму себе руками своими и сам себя в неё поместил. И горе, что дети его рождаются в этой тюрьме. Они взрослеют и не знают другой жизни, кроме жизни отцов своих, и после видеть её не могут, ибо слепы стали глаза их от мрака заточения. И не видят они ни кого, что кто бы жил по-другому, а потому считают, что их жизнь - единственный возможный способ существования. Ибо если глаза никогда не видели света, то как узнаешь, что ты во мраке. И люди изо всех сил пытаются украсить свою тюрьму: кто дорогим убранством, кто красивой рабыней. Но нет от этого никакой пользы: из тюрьмы надо выйти!.....
@i_indastris9149
@i_indastris9149 Жыл бұрын
Все верно. Так же говорят террористам смертникам. И они смело идут на выход. Чисто естественный отбор во всей своей красе.
@Antichristus-Michael
@Antichristus-Michael Жыл бұрын
@@i_indastris9149 Каждая душа познает смерти вкус. Мы испытаем вас добром и злом ради искушения и к Нам вы будете возвращены * ***
@pal181
@pal181 Жыл бұрын
Ты то как "прозрел", если тоже "слеп"?
@s0589me
@s0589me Жыл бұрын
Вообще-то это не проблема ИИ, а проблема нынешних его реализаций. Нынешние нейросети не имеют НИКАКОГО отношения к ИИ, а другого запад пока ничего не придумал и придумать не в состоянии. Самая опасная часть этих сетей - это эффект, называемый "концентрация риска" или "концентрация ошибки". Это выражается в том, что хорошая сеть в 99.9% случаев даёт правильный результат, а в 0.1% выдаёт результат, не имеющий абсолютно никакого отношения к правильному и обычно приводящий к фатальным для окружающих и/или самой системы последствиям. Например, 999 раз проедет на зелёный свет, а в 1000 раз попрётся на красный и посшибает кучу машин.
@artemdemchenko8901
@artemdemchenko8901 Жыл бұрын
Да, это тупиковая ветвь Но нормальный пример же есть, не стоит грустить
@pal181
@pal181 Жыл бұрын
И тем не менее люди занимаются тем же
@artemdemchenko8901
@artemdemchenko8901 Жыл бұрын
@@pal181 если вы например google image search то не страшно если 1 из 1000 картинок будет неподходящая Или если вы автоматический генератор субтитров И для таких сетей есть задачи
@s0589me
@s0589me Жыл бұрын
@@artemdemchenko8901 Совершенно верно, в некритичных задачах нынешние сети могут работать. Но тут непонятно, где граница. А если в отделе кадров стоит такая система (об этом говорят уже очень громко), это вроде не критично? А если отказ в приёме на работу влияет на т.н. "социальный рейтинг", который, в свою очередь, влияет на решение сети о приёме на работу? Мне кажется, нужно законодательно, под сильным наказанием, запретить ссылаться на какую-бы то ни было экспертную систему, когда задают вопрос "почему" было принято то или иное решение. Ответственность за любое решение должен нести конкретный человек.
@artemdemchenko8901
@artemdemchenko8901 Жыл бұрын
​@@s0589me вроде понятно где важна погрешность а где нет компания может скрытно использовать такую систему, но если вынесет это на публику ее забулят в "свободных" странах против "социального рейтинга" скорее всего будут протестовать, а "демократическим" да, такое грозит. т.н. "цифровой фашизм". мне кажется закон в таких ситуациях не поможет, только протест
@fixerden
@fixerden Жыл бұрын
«Взлом вознаграждения» это то, как жулики, чиновники и олигархи обходят денежную систему. Ничего нового. И результат от ИИ в гос. управлении будет, скорее всего, как от вороватого негодяя с неограниченной властью.
@dreaminglazar7077
@dreaminglazar7077 Жыл бұрын
Зависит от Правильности Постановки Задач.
@fixerden
@fixerden Жыл бұрын
@@dreaminglazar7077 Это старая дилемма: «кто будет сторожить сторожей?». Если те, кто сейчас лезут во власть не отличаются ни умом ни порядочностью, почему другие (на самом деле те же самые персонажи) должны действовать как-то иначе, особенно получив возможность маскироваться за ИИ?
@JeanPaulMore
@JeanPaulMore Жыл бұрын
чето затянулось... я уже на первом ролике напридумал ключевых условий "если", что 2й ролик смотрел зевая.. а этот даже смотреть не стану
@Antichristus-Michael
@Antichristus-Michael Жыл бұрын
Потому что участь сынов человеческих и участь животных участь одна как те умирают так умирают и эти и одно дыхание у всех и нет у человека преимущества перед скотом ****
@EVGENII7
@EVGENII7 Жыл бұрын
У нас все депутаты это ии, они взломали систему набили себе кучу очков в иностранных банках и ничего не делают
@Tikpoghosyan
@Tikpoghosyan Жыл бұрын
Нажми на лайк если ты не робот
@user-wp9lc7oi3g
@user-wp9lc7oi3g Жыл бұрын
Задача выполнена. Введите дальнейшие инструкции: ...
@waaaaazzzzaaap
@waaaaazzzzaaap Жыл бұрын
Предположения логичны. Логичны предположения. Узколобый повествователь, даже близко не представляет, что даже сейчас может и. и.
Зу-зу Күлпәш. Стоп. (1-бөлім)
52:33
ASTANATV Movie
Рет қаралды 875 М.
Зу-зу Күлпәш.Курс (6 бөлім)
40:48
ASTANATV Movie
Рет қаралды 278 М.
【獨生子的日常】让小奶猫也体验一把鬼打墙#小奶喵 #铲屎官的乐趣
00:12
“獨生子的日常”YouTube官方頻道
Рет қаралды 106 МЛН
Useful Gadget for Smart Parents 🌟
00:29
Meow-some! Reacts
Рет қаралды 10 МЛН
Законы (не)сохранения и теорема Нётер.
5:49
Альфа-частица
Рет қаралды 2,5 М.
Вращающиеся черные дыры [Veritasium]
10:07
Vert Dider
Рет қаралды 169 М.
Пленка или защитное стекло: что лучше?
0:52
Слава 100пудово!
Рет қаралды 1,6 МЛН
3D printed Nintendo Switch Game Carousel
0:14
Bambu Lab
Рет қаралды 1,8 МЛН
phone charge game #viral #tranding #new #reels
0:18
YODHA GAMING RAAS
Рет қаралды 12 МЛН
Which Phone Unlock Code Will You Choose? 🤔️
0:14
Game9bit
Рет қаралды 7 МЛН
Google I/O 2024 - ИИ, Android 15 и новые Google Glass
22:47