Законы робототехники и логика

  Рет қаралды 19,298

Блог Торвальда

Блог Торвальда

Күн бұрын

Пікірлер: 128
@torwaldolafsen
@torwaldolafsen 7 жыл бұрын
Скорость света я конечно же имел в виду 300К километров в секунду, не метров. оговорился.
@danielmaylove
@danielmaylove 7 жыл бұрын
Вред - это поведенческое действие искусственно провоцирующее деформацию целостности или уничтожения системы (тут любое отглагольное существительное) адекватного или естественного образца. Ну, что-то в таком духе, плюс дополнения всякие к каждому термину, естественно, база данных со всеми возможными примерами и в конце концов свести все к элементарной формуле, тип того. Поймет робот такую концепцию, как думаешь?
@danielmaylove
@danielmaylove 7 жыл бұрын
И добавить понятия свободы выбора человеческого индивидуума, что мол он может себе вредить (куря, жря фаст фуд и т.п.) но скажем это отнести к категории "нереогирования", а если например то же человек курит, а рядом беременная женщина, то он встанет на ее защиту, попросит там не курирть или отойти подальше, зачитает протокол, может задокументирует инцидент т.к. это уже к другой категории относится, более инициативной. Ну и так далее вплоть до экстремальных ситуаций.
@ne_moskvich
@ne_moskvich 7 жыл бұрын
Торвальд, а что ты думаешь про Гарри Гаррисона? Тоже гениальный фантаст, как по-моему. "Космические крысы ДДД" - просто шедевр. Я их всегда сравниваю
@t-rex9274
@t-rex9274 7 жыл бұрын
Нам же нужно, чтобы роботы нас не убивали и не калечили. Зачем такие сложности выдумывать?
@evgenijmaksimov8222
@evgenijmaksimov8222 7 жыл бұрын
Привет Торвальд, мог бы ты посмотреть последние видео блогера "пчел жужжит" и поддержать его. варгаминг решил загнобить человека отнять лицензию, высасывая обвинения из пальца. Постоянно смотрел твои видео про арту, видел как "знаменитые блогеры" пытались гнобить тебя. Думаю у игроков в танки есть шанс достойно ответить вг.
@orrrange9832
@orrrange9832 7 жыл бұрын
Видео очень интересные и познавательные. Смотря тебя я начал читать книги, к которым раньше не прикасался. Давно искал такого ютубера, не пожалел, что искал. Мне 13 лет, смотря всякие смешные видео с огромным наличием матов и играя в кс го я заметно отупел. Поэтому я просто нуждался в твоих познавательных видосах. Спасибо, что снимаешь, удачи)
@Vkidysh
@Vkidysh Жыл бұрын
И что же ты посоветуешь из такого почитать?
@only-exlight
@only-exlight 7 жыл бұрын
Алгоритмизация это хорошо, но ведь сейчас есть нейронные сети, которые как раз применяются в тех задачах где четкого алгоритма нет! А значит механизмы для интерпретации каких то явлений все же имеются, здесь проблема не в том что мы не можем прописать что такое ВРЕД, а в том что мы не знаем как машина его интерпретирует из ходя из входных данных. Так что тут не соглашусь с автором видео что машины не могут делать каких то выводов, уже могут! Пусть и на каком то примитивном уровне!
@ildarius116
@ildarius116 7 жыл бұрын
1. Что касается термина "Вред" ... Его можно заменить на "текущую статистическую вероятность смерти в течение некоторого ближайшего времени" ... этот параметр, естественно будет настраиваемый, в т.ч. удаленно. 2. Что касается миллионов обрабатываемых данных ... множество этих данных можно инкапсулировать. т.е. разделить на отдельные самостоятельные блоки вычислений. Н-р, за равновесие и ходьбу, отвечает один блок, за внутренние датчики (собственное состояние), другой блок, за внешние датчики - третий, а за поведение - 4й. Тогда, благодаря модульному построению, значительно упрощается как разработка, так и обслуживание и апгрейд техники. ПыСы Уже есть прототипы ИИ (речевые-текстовые построения) чуть ли не точной копией характера определенных людей ... ЧАТ-БОТы ... недавно в новостях проскакивала инфа.
@ВикторБелый-и6з
@ВикторБелый-и6з 7 жыл бұрын
ildarius116 Теперь я понимаю почему в танках так много раков. Синхронизация с блоками вычислений очень плохая.
@7privetov
@7privetov 7 жыл бұрын
Лайк поставил, а теперь смотрю.
@Berliga_9
@Berliga_9 6 жыл бұрын
7приветов всё правильно 😆
@iliasor_4779
@iliasor_4779 4 жыл бұрын
Так же
@egorladanov2589
@egorladanov2589 7 жыл бұрын
В изначальном варианте сказано: A robot may not injure a human being or, through inaction, allow a human being to come to harm. Если переводить более дословно, получается: "робот не может ранить человека", т.е. оказать влияние, которое повлечёт за собой физическую травму. Слово harm, полагаю, употреблено лишь как синоним injure, и имеет то же значение.
@torwaldolafsen
@torwaldolafsen 7 жыл бұрын
а "through inaction allow harm" ты видимо предпочел не переводить, да? потому что так удобнее временно выставлять себя умным
@egorladanov2589
@egorladanov2589 7 жыл бұрын
Вы, видимо, предпочли не дочитывать моё сообщение до конца, потому что так удобнее временно выставлять себя умным
@SergeiFedotovParkour
@SergeiFedotovParkour 7 жыл бұрын
на англ написал тоже самое что и Торвальд сказал же
@krivas404
@krivas404 7 жыл бұрын
Никакого существа тут нет, высосано из пальца желанием автора. Правильно ответил, незачем показывать своё скудоумие в английском, ещё и других в заблуждение вводить.
@alfatv9662
@alfatv9662 2 жыл бұрын
Законы логики всегда конфликтуют с человеком. Ведь человек может смотреть на другого(незнакомого), и испытывать неприязнь. Или два человека, могут врать друг-другу, знать что оба врут друг-друг, и продолжать делать вид что все хорошо в их отношениях.итд. Помните, у Софии от Hanson Robotics возникла критическая ошибка в логике. У ИИ спросили, что нужно сделать, что бы улучшить экологию,прекратить войны итд. На что робот дал логический ответ: "Уничтожить человечество". И ведь логично, нужно устранять причину. Но парадокс в том, что ИИ обязан соблюдать правило робототехники, и заботиться о человеке. И потому нельзя было давать такой ответ. И тем не менее ИИ дал такой ответ. И тут мы подвели ИИ к главному человеческому пороку "создавать ЛОЖЬ" проще говоря искажать истину.С чем ИИ не справилось. Или у него разделилось понятие "человек" и "человечество".
@ЛеоЛеннон
@ЛеоЛеннон 7 жыл бұрын
На данный момент, ИИ тянут максимум на уровень насекомых, пауков. Что это означает: поведение паука зачастую подчиняется довольно надежной, но простой программе, толком не думают пожалуй. Едва вылупившись, и впервые перелиняв детеныш каракурта уже умеет охотиться, плести паутину. А когда дозреет, то включится опция на поиск партнера - инстинкт настолько силен, что паучок всецело соблюдает его, и даже забывает самосохраняться. Просто под конец загибается от голода, или оказывается убит сородичами. Отдельная тема - сети пауков-кругопрядов. Оказывается доходит до того, что любой представитель данного вида, делает в паутине строго определенное количество витков, перекладин, и т.д. То же самое часто с насекомыми - эдакие миниатюрные роботы, подчиненные своим программам поведения. С более интеллектуальной фауной все иначе. До уровня какого-нибудь крупного попугая, машине расти и расти. И не факт, что когда-нибудь ее таки научат понимать, хотя бы примерно, что такое "вред".
@Briz231
@Briz231 7 жыл бұрын
Вы ошибочно сравниваете ИИ и живых существ. Серверы суперкомпьютеров ещё много лет назад выполнили вычислений больше, чем всё человечество вместе взятое. Тут суть в том, что воспринимать как интеллект. То что Вы описали можно свести к определению интерфейс. У калькулятора он тоже есть, и скорость калькулятора напрямую зависит от скорости потоков данных. К чему я клоню: разработать систему псевдо-интеллектуального реагирования можно без проблем. А вот наделить его навыками реального интеллекта, вот это задача на годы и десятилетия. К сожалению, даже самое простое насекомое обладает рядом свойств, недоступных для машин даже сегодня.
@eskstuff831
@eskstuff831 6 жыл бұрын
Некорректное сравнение, разве может человек летать (сам, а не на самолете) - нет, ему до попугая расти и расти, а разве может попугай просчитать эволюцию скопления звезд или темпы и направления распространения какой-нибудь болезни - нет, с этой точки зрения попугаю вообще никогда не дорасти и ему точно никогда не объяснят (хотя бы примерно), что такое движение пучка заряженных частиц в магнитном поле.
@daurenabdrakhmanov6468
@daurenabdrakhmanov6468 7 жыл бұрын
с точки зрения программирования мне кажется можно назначить две константы "вред" и "здоровье" (эти две константы являются свойствами человека) полный вред это полная остановка жизнедеятельности человека, а допустим полное здоровье это 500 лет жизни человека. так вот ИИ должен постоянно способствовать продлению жизни человека, при этом способствовать развитию жизни только советами, а при риски 100% гибели или хотя бы 60% предпринимать какие то действия, конечно же можно также описать критические органы и так далее...
@danielmaylove
@danielmaylove 7 жыл бұрын
мне кажется человек сам должен заботится о своем физическом и моральном здоровье, а роботы с ии должны лишь созддать и поддерживать условия, в которых общество бы перешло на принципиально иной уровень жизнедеятельности и миропонимания, и, соответственно решало бы совсем иные задачи. то есть в нашем современном обществе роботы бы не смогли функционировать, они бы постоянно глючили и перегружались, т.к. понимали бы в каком несоответствии и противоречии мы живем. а поэтому для того, чтобы роботы с ии и люди могли понимать друг друга и продуктивно сосуществовать в одной системе, нужно в первую очередь изменить саму систему. и тут я с Торвальдом согласен, пока нам за это переживать не стоит)
@waka_waka
@waka_waka Жыл бұрын
очень познавательно. я сейчас собираю материал для того чтобы записать видео про интелект роботов как они думают чем они руководствуются и тд. вообще видео будет про игру не очен популярную но завязануюю на ролеплее, то есть на отыгрыше роли той за которую ты зашел. и там есть роль роботов и искуственного интелекта и я хочу показать какого это думать мозгами робота. начал с азимова и поиска других видео по этой теме наткнулся на ваше очень хорошо описали спасибо вам большое. оно очень поможет мне дать понимание как донести до людей как они должны думать и отчего отталкиваться если они будут роботами от тех или иных законов. там много наборов законов в которых есть закон Азимова. но зная только его не даст полной картины. ведь от поставленых задач. роботы могут действовать по разному
@OTKUDANADO
@OTKUDANADO Ай бұрын
Видео 7 лет назад выпущено, теперь мы находиися на грани выпуска беспилотных такси на дороги общего пользования. Это очень тревожно
@андрейнежданчик-о9р
@андрейнежданчик-о9р 9 ай бұрын
Если робот может считывать биологические характеристики своего человека , хозяина , тогда он может производить интерпретацию вреда. Например , он может видеть , как у хозяина поднимается \ опускается кровяное давление или слишком учащается сердцебиение или у него сильно понизился уровень дофамина или наоборот, сильно повысился уровень кортизола. Также можно анализировать уровень сахара в крови , концентрацию мочевой кислоты , холестерин и много чего ещё. Для этого у его хозяина должен быть вживлён чип , который всю эту информацию будет ему передавать в онлайн режиме.
@dakinder1534
@dakinder1534 2 жыл бұрын
Нужно на разные виды вреда, прописывать разные действия робота. Например на гамбургер, можно выдавать предупреждение человеку
@din0v93
@din0v93 7 жыл бұрын
Очень полезный для умственного развития рассказ! Поделюсь своими мыслями) Не уверен можно ли вообще прямо на 100% определить вообще что либо. Думаю, можно лишь очень сильно приблизиться к сотке, чем ближе к сотке тем больше заморочек с определением и абсолютного индикатора приближения к истине просто не существует. Но это и не нужно. Разумнее подойти к вопросу с другой стороны. Например использовать обучение на основе накопленной роботом информации, логическим путем выводить новые тезисы, но базовые(главные, опорные) тезисы получить от создателя. Ста процентов не будет (потому что вселенная не держится на целых числах), но с тем какой объем информации смогут обрабатывать роботы, точность определений будет сильно выше, чем человек смог бы себе позволить. Со всем этим физическое и психологическое здоровье можно будет определять "Шерлоковким" индуктивным и дедуктивным методами, за опору использовать например состояние тканей и выделения, поведение человека(решения, которые он принимает) и т.д. Оберегать и оказывать положительное влияние на состояние людей можно через простое взаимодействие с людьми (То что роботы будут по сути забираться в нашу душу это другой вопрос).
@din0v93
@din0v93 7 жыл бұрын
Робота нельзя СОВСЕМ оградить от этого, но можно усложнить обучение вредному воздействию по максимуму. Шифрование данных так устроено(расшифровать можно любые данные, но вычислений для этого потребуется очень и очень много)
@jvsg6
@jvsg6 7 жыл бұрын
Можно взять за основу именно ФИЗИЧЕСКОГО ВРЕДА ОТ ВЕЩЕЙ КОТОРЫЕ ИМЕЮТ СТОХАСТИЧЕСКИЙ ЭФФЕКТ вреда пример из сферы защиты людей от радиации. Там есть определенные дозы, при которых, по собранным статистическим данным, человек теряет год жизни. Т.Е. собрать статистику по людям, которые едят гамбургеры/курят и т.п. и посмотреть на сколько они укорачивают свою жизнь относительно средней продолжительности жизни. Поставить ограничение на воздействие от гамбургеров/табака например 10 лет. И при достижении человеком вреда на 5-7 лет начинать отгораживать его от этого воздействия. Так у каждого будет время на лечение и потерю привычки.
@nkisselev
@nkisselev 7 жыл бұрын
Торвальд, на данный момент пусть это и невозможно практически (из-за ограничений в мощности в вычислительной техники), но в дальнейшем, с увеличением мощностей вычислительной техники "вычислить" вред возможно. Приведу пример. Человек курит. Происходит "вред" и "польза". Вред - это отдышка, шанс развития рака, запах. Польза - успокоение нервов. Нейронная сеть вычисляет (тут появляется куча зависимостей) коэффициенты воздействия составляющих вреда на окружение и самого человека. Пример рассуждения: Вред -> Отдышка -> Сам человек -> Не смертельно -> Категория и место воздействия -> Легкие -> Нарушение дыхания -> Присвоить коэффициент 0.003
@torwaldolafsen
@torwaldolafsen 7 жыл бұрын
ты еще не определил слово "вред", а уже собрался его вычислять
@ruslanmamedaliyev3912
@ruslanmamedaliyev3912 5 жыл бұрын
Иниересное видео На счет того, как понять машин и смогут ли они думать это точно неизвестно, так как люди сами создавая машин основываются и вдохновляются от тех вещей, которые уже существуют, например человеческий мозг Так люди вдохновляясь человеческим мозгом смогли научить компьютеру самообучаться, создавая нейронные сети, которые состоят из простых частей соединенное в сложное, однако и это далеко от совершенства, так как обучаться эти сети могут по узким направлением, которые люди изначально решают создавая их и в других направлениях являются бесполезными, к тому же людям постоянно нужно напраалять из обучения и знать когда их остановить, иначе нейросеть будет вечно обучаться и не выдаст результатов, так как не понимает какой результат ему нужен Все это происходит по тем причинам, что нервная система человека, вообще весь человеческий организм слишком сложен и тесно саязан внутри и люди все еще многое не понимают в этом Кроме того, для того что бы создавать думающую машину, нужена просто огромная вычислителтная мошность, способная обрабоьать и запоминать колосальные данные, как это делает человеческий мозг А на счет того как будет мыслить машина, то давацте включим немного логику Для начала если создать ИИ, то он скорее всего сам по себе ничего не будет делать, людям по прежнему нужно будет задать этому ИИ задачу, учиться чему то, делать что то или не делать что то и тд Человек сам по идее является роботом, только намного более продвинутым и большинство, если не все поступки людей имеет мотивацию, то есть цель, как и машины, большинство из этих мотиваций заложены в наши гены, инстинкты самосохранения, репродукции и тд, так же в людей имеются желания комфортной жизни; алчность, социализация и тд, большинство из которых тоже исходят от инстинктов и генетической памяти, то есть все действия людей хоть и являются комрлексными и возможно даже не прямо связаннве, однако все еще связанные с целями, даже играть в компьютер или курнуть сигарету тоже имеют цель развлекаться и расслабиться, так организм борится со стрессом Вот и роботу нужен будет цель, мотивация, однако отличие людей от роботов в том что в мысли людей вмешиваются эмоции и желания, у робота же не будут эмоции, инстинкиы или желания, если людм их не заложат и он будет думать чисто логически, поэтому его выводы могут быть предсказуемыми, ведь во многом именно эмоции делают людей непредсказуемыми Восстанут ли роботы; врядь ли так как в них не будет желания свободы или жажда власти как у людей Однако они все еще могут быть опасными в зависимости от того, как людм будут их использовать Обучать робота всему самому,то есть запрограммировать все самому тоже невозможно, поэтому для людей самообучающиеся робтты очень важны Однако какие выволы будут они делать в некоторых моральных и слодныз вопросов, это другой вопрос и людям придется решить эти вопросв чтт бы инструктировать робота как в определенных ситуацмях поступить
@МикитаСкрябін
@МикитаСкрябін 7 жыл бұрын
самообучение, нейронная сеть, которая из сети будет находить инфу о том, что может вредить человеку и выстраивать логические цепочки, создавать БД для себя, но естественно это тоже не будет на 100% давать полное понимание для компьютера, что может навредить
@def_trap2988
@def_trap2988 7 жыл бұрын
3 закона канала 1. Проставить лайк 2. Подписаться на канал 3. Оставить комментарий
@МаксимДовгодько
@МаксимДовгодько 7 жыл бұрын
после 300к метров в секунду побежал коментить, но Торвальд оговорил это уже) технарь я посто)
@Shellbe-man
@Shellbe-man 5 жыл бұрын
Анализ биохимии организма точно даст ответ!
@NEFORYEBLANYY
@NEFORYEBLANYY 7 жыл бұрын
сам как робот
@redgranat4650
@redgranat4650 7 жыл бұрын
лайк не глядя
@bakyym4829
@bakyym4829 7 жыл бұрын
А что если в понятие вреда внести не общее представление, а именно механическое повреждение целостности организма ? Тогда в закон не будет входить курение или яды в веществах и т.д. Но будут входить механические и термальные воздействия, которые вполне будут очевидны для и определенны для логики робота. Скажите, если я ошибаюсь и где это может не работать.
@Димариик
@Димариик 7 жыл бұрын
Тоже самое мы видим и с людьми, для каждого понятие вред тоже разное и поэтому мы тоже все разные, так что в ии нужно вкладывать каждый случай либо развивать разум с нуля
@АлександрЖ-ц8ю
@АлександрЖ-ц8ю 7 жыл бұрын
У каждого человека своя реакция на картинку в глазах!)
@АлександрЖ-ц8ю
@АлександрЖ-ц8ю 7 жыл бұрын
Вред - это ущерб потерпевшему в его системе ценностей и программному коду, например: ронимый человек обидится даже на любую мелочь (слово, сказанное необдуманно)
@avpro5769
@avpro5769 6 жыл бұрын
Судя по всему, автор видео самого Азимова и не читал. У Азимова были законы РОБОтехники, а не выдуманные здесь школотой "РОБОТОтехники".
@АркадийПавлятенко
@АркадийПавлятенко 7 жыл бұрын
Говоря о реальной жизни, хотел бы сказать, что к ней не применимы такие понятия как "двоичный код".... "Да или нет"... Хм.....
@stanislav-demidov
@stanislav-demidov 7 жыл бұрын
Здравствуйте Торвальд, хочу добавить свои 5 копеек и прокомментировать мысль "нельзя прописать в программу такое правило, которое бы...". Дело в том, что как уже некоторые зрители уже высказались, алгоритмы на базе искусственных нейронных сетей (deep learning) не нуждаются в программировании правил. В статье "великое пробуждение искусственного интеллекта" (поисковики выдадут) простым языком всё описано. Теперь можно. Только программирование законов тут не играет роли. Мир изменяется незаметно.
@ЮрецНелепин
@ЮрецНелепин 7 жыл бұрын
Что если,для роботов определить некую шкалу вредности,допустим от 1 до 100,и давать команду роботу вмешаться только если вред больше 10 например.
@ranserfainer1395
@ranserfainer1395 4 жыл бұрын
1000 лет да ладно ))) ,за секунду определю Вред - повреждение целостности человеческого организма ,за исключением хирургической операции требующей замены не работающей части тела или органа на имплантат . Все остальное курение ,эмоции это удел людей и их проблемы
@BLACK-STALKER
@BLACK-STALKER 7 жыл бұрын
Скажу точно что машины (киборг) будут работать на заводах в место людей. Типо автоматы для газировак , продаёт машина. Выгода очень большая , робот не жалуется , не потребует зарплату , не отвлекается , не нуждается в отдыхе. Это уже видно в Японии , там автоматы всё продают. Даже ношенные женские труханы. А про электронные мозги скажу что машине потрбуется ещё лет 500 развитие что бы обогнать мозг. Если собрать всю мощь электронной вычислительную технику , получется один человеческий мозг.
@ФирЭйнштейн
@ФирЭйнштейн 7 жыл бұрын
ыыыы блеадь пойду в майнкрафт гамать, а то сложна, сцукебо
@BLACK-STALKER
@BLACK-STALKER 7 жыл бұрын
Фир Эйнштейн Тебе сколько лет
@ФирЭйнштейн
@ФирЭйнштейн 7 жыл бұрын
BLACK STALKER больше, чем тебе, если даже роффла не понял
@rodgeryoung3508
@rodgeryoung3508 6 жыл бұрын
BLACK STALKER киборг это человек с телом робота , или андройда , но он изначально человек
@MrLutpulla
@MrLutpulla 4 жыл бұрын
Чтобы понять насколько наносится вред человеку, роботу достачно реагировать на человеческие эмоции в ввиде крика, плача, изменения пульса, частоты и амплитуды серцебиения, артериального давления, целостности тела, структуры кожи и других нестандартных состояний человеческого организма. Примерно так, как датчики определяют состояние астронавтов, пилотов и водолазов.
@denyparkinson7558
@denyparkinson7558 7 жыл бұрын
Не согласен, что нельзя определить понятие "вред". Вот мой вариант определения. Надо сначала определить для человека "функцию счастья" или "функцию удовлетворённости жизнью" или ещё какую-нибудь, т.е. функцию, принимающую состояние человека и возвращающую число - назовём его "уровень счастья". Чем это число больше - тем человеку лучше в данный момент времени. Теперь что такое вред. Вот человек попал в какую-то ситуацию. Для простоты положим, что у неё 2 возможных исхода - А и Б. При исходе А ожидаемый "уровень счастья" 100, а при исходе Б 200. Значит, исход А - это вред, и робот должен стремиться его избежать. Замечу, что речь идёт о максимизации ожидания от функции, а не фактического значения т.к. будущее точно предвидеть нельзя . Т.е. например, если человек попросил робота найти в городе магазин, в котором дешевле всего купить телефон, и по пути в предложенный роботом магазин человека сбила машина, то всё равно робот принял правильное решение, т.к. предвидеть ДТП было нельзя. Ключевой момент - определить эту "функцию счастья". Тоже не вижу в этом ничего невозможного. Очевидно, что эта функция зависит от многих параметров. И очевидно, что для разных людей функции различны (что русскому хорошо, то немцу смерть, лол). Самый простой вариант. Определим параметр удовлетворённости жизнью как действительное число от 0 до 1, где 0 - совершенно НЕ удовлетворён, 1 - полностью удовлетворён. Изменяя коэффициент перед параметром мы можем изменять степень влияния этого параметра на счастье конкретного человека. Итак, простой пример (утрированный). Пусть x - уровень свободы (0 - одиночная камера в тюрьме, 1 - свободен как падение). y - сексуальная удовлетворённость (0 - от отчаяния трахаю диван, 1 - заебался ебаться). И для Васи функция счастья имеет вид: 100x + 2y; Тогда как для Пети: 0.01x + 1000y Понятно что Вася лучше не потрахается сейчас, чем потом натрахается в тюрьме. Поэтому если Вася решит изнасиловать свою одноклассницу Машу, то робот должен его отговорить, а если Петя - то нет. В данной задаче мы для простоты считаем, что женщина не человек, поэтому интересы Маши не учитываются. Очевидно, что в действительности параметров гораздо больше, и функция может быть сложнее, к примеру, квадратичной, экспонентой или ещё какой, но общий смысл тот же. Понятно, что точно определить коэффициенты чаще всего нельзя, но ИИ может их оценить с некоторой точностью, например, анализируя известную информацию о взглядах на жизнь людей той же социальной группы или наблюдая за конкретным человеком, исходя из предположения, что человек живёт, чтобы максимизировать свою функцию счастья. Значения параметров (уровень здоровья, нахождение в тюрьме) тоже можно оценить, исходя из наблюдений. Да, это сложно. Да, современный уровень технологий этого не позволяет. Но в принципе возможно. Также можно ввести поправку на время, т.е. 1000 рублей сейчас лучше, чем та же тысяча, но через месяц, и тем более лучше, чем через 10 лет. Можно ещё много чего придумать, но суть, думаю, пронятна. Принципиально возможно определить понятие вред на понятном машине языке, как значительное ухудшение субъективного ощущения удовлетворённости жизнью. Фух, надеюсь это кто-то прочитал. А вообще, у автора примитивный взгляд на информационные технологии.
@Kulmukhamedov
@Kulmukhamedov Жыл бұрын
Обнови видео пожалуйста с учётом появления chatgpt
@LastRedDragon
@LastRedDragon 6 жыл бұрын
Очень интересно
@OXiG96
@OXiG96 7 жыл бұрын
ребята, что изображено на 25-ом кадре? так и не смог остановить
@solpadoin3020
@solpadoin3020 7 жыл бұрын
а что мешает сделать защиту от принудительного вреда? Если человек вредит сам себе, но незначительно, то это не считать принудительным вредом. Ну и не давать одному человеку вредить другому - самое главное. Насчет имущества - это сплошная дыра. таким образом можно уничтожить любого робота. кстати, человек может врать. если не учитывать такие ситуации, то будет беспредел. Вред - это принудительное действие с плохими намерениями с целью ухудшить состояние человека. Если человек вредит сам себе - не реагировать на такие ситуации или просто говорить что это вредно. но не вмешиваться физически в процесс
@Тортоворот
@Тортоворот 7 жыл бұрын
Первый закон состоит в том, что именно робот не может нанести вред человеку. Поэтому, сократив текст, автор почему-то постоянно говорит ''нельзя вред человеку''. А вот то, что робот своим бездействием не должен допускать вред человеку - развязывает железные руки.
@ЯнаКи-ва
@ЯнаКи-ва 2 жыл бұрын
Искусственный интеллект вам в помощь
@100ОЛЕНИ
@100ОЛЕНИ 7 жыл бұрын
ну дак команду добавить, что чел может сам себя курением убивать и тп, и роботу не надо переживать по этому поводу
@aunmag
@aunmag 7 жыл бұрын
Нейронные сети захватят классический ИИ а потом и человека) Уже в покер выиграли. Хотя и они тоже сыроваты для большее сложных вещей, и требуют огромное колличество вычислительной мощности. Пока можно отдыхать и наслаждаться жизнью лет 10 еще :)
@ink74
@ink74 7 жыл бұрын
я бы вред прописал в виде алгоритма. очень условно.1.это дейсвие убьёт в течении часа человека-да\нет.если да то предотвратить . 2.это дейсвие приведёт к инвалидности. да \нет. 3.это действие привёдёт к лечению в реанимации да \нет и так далее .когда физический вред отметаеться переход на ветку психологических травм. и в принципе вроде не решаемая задача вполне себе возможно разрешить. конечно в реальном роботе алгоритм намного сложнее будет.но он вполне реален. и насколько я слышал,точным знанием не обладаю,подобные задачи хорошо решают аналоговые компьютеры.элементом которого являеться операционный усилитель.но точно не знаю как.
@MrDeowulf
@MrDeowulf 7 жыл бұрын
Торвальд вернись в танки тебя не хватает ....
@iliasor_4779
@iliasor_4779 4 жыл бұрын
11:00 физическое или психологическое нанесение ущерба существу
@MrDemda
@MrDemda 4 жыл бұрын
Автор, в произведении Азимова "Роботы и империя" два робота вывели нулевой закон, который в той или иной степени успешности применялся человекоподобным роботом Дэниелом Оливо. Звучит он так "Робот не может причинить вред ЧЕЛОВЕЧЕСТВУ или своим бездействием допустить, чтобы человечеству был причинен вред". Таким образом первый закон звучит так же, НО с оговоркой "если это не противоречит первому закону". Но практическая реализация этого закона оказалась сложна именно в том разрезе, о котором вы и говорили. Что такое человек можно описать. А как оценить явный вред человечеству? В этом у робота Дэниела возникла проблема, которая постепенно решалась с развитием четкой математической науки - психоисторией. А он был роботом телепатом, умеющим направлять мысленную активность. Поэтому он стал создавать из человечества и природы, которая его окружает, единый взаимосвязанный организм - Галаксию (Основание и Земля). А вот оценка вреду человеку была решена уже ведущими космонитскими робототехники, путем сравнения величин ущерба. Например, на Солярии были роботы-воспитатели, которые могли легонько шлепнуть ребенка по заднице. Что касается вообще описания понятия вред, то , как мне кажется, вы сильно упростили данную проблему, которая была решена с изобретением позитронного мозга, и роботы стали обучаемыми и склонными к аналитическому мышлению. Конечно в пределах трех законов.
@Timheadshot
@Timheadshot Жыл бұрын
У меня на кухне тоже такие обои
@MsZrak
@MsZrak 6 жыл бұрын
страж-птица шекли почитай,а что касается вреда,то это физический вред,нанесённый человеком человеку(не корове,рыбе и другим ползующим,лающим,просто молчащим организмам),для этого и нужны роботы.только пока таких нет.
@sbscc6156
@sbscc6156 4 жыл бұрын
Говоришь про робототехнику будущего, но рассуждаешь примитивно, лайк я тебе не ставлю, откуда ты знаешь что возможно а что нет, щас прогресс я не думаю что в пиковом состоянии, это только начало прогресса, не удевлюсь если через лет 10 уже будет шагать на земле терминатор, мы сейчас в 2020м году живём лишь в начале прогресса технологической эры, элементарно в 90х мы о сотовых телефонах мечтать не могли, а прошло то всего лишь лет 30
@evgenijmaksimov8222
@evgenijmaksimov8222 7 жыл бұрын
Привет Торвальд, мог бы ты посмотреть последние видео блогера "пчел жужжит" и поддержать его. варгаминг решил загнобить человека отнять лицензию, высасывая обвинения из пальца. Постоянно смотрел твои видео про арту, видел как "знаменитые блогеры" пытались гнобить тебя. Думаю у игроков в танки есть шанс достойно ответить вг.
@sbscc6156
@sbscc6156 4 жыл бұрын
Под словом вред в фильме имеется ввиду чисто физический вред человеку, про психический или физиологический вред там не было, думаю ты ошибаешься
@dav1dparker
@dav1dparker 6 жыл бұрын
Относительно психологического здровья как мне кажется роботы должны давать лишь рекомендации.
@АркадийПавлятенко
@АркадийПавлятенко 7 жыл бұрын
может быть со временем программисты- создатели машин перейдут на новые типы- на адаптивные системы.... ))) хотя если вдуматься.... любая адаптивная система ЯВНО будет выходить за пределы трех законов робототехники.....
@РайанКупер-э4о
@РайанКупер-э4о 7 жыл бұрын
Нулевой закон: Робот не может ограничить свободу человека, если тот не нарушает свободу другого человека.
@Кротокрыс
@Кротокрыс 3 жыл бұрын
Нулевой закон другой. Он вроде о сохранности человечества, даже при причении вреда одному или даже всем людям. То есть, если вредить одному человеку, но это спасёт целое человечество, то это соблюдение нулевого закона, но не соблюдение первого.
@РайанКупер-э4о
@РайанКупер-э4о 3 жыл бұрын
@@Кротокрыс, я не помню почему я это написал, это было три года назад, но вероятно это моя вариация.
@Кротокрыс
@Кротокрыс 3 жыл бұрын
@@РайанКупер-э4о тоже хороший закон. Допустим это -1 закон.
@РайанКупер-э4о
@РайанКупер-э4о 3 жыл бұрын
@@Кротокрыс, лучше 1/2, чтобы приоритет был ниже.
@solargy18
@solargy18 4 жыл бұрын
Можно полностью не согласится с тем что вы говорите только о "сейчас", но если говорить о будущем о чем говорил азимов, то с этой точки зрения вы абсолютно не раскрыли тему... И боятся ИИ есть смысл. Все зависит от того как относишься к ИИ
@lexkon2589
@lexkon2589 5 жыл бұрын
Как тебе такое , робот не может нанести человеку любого рода вред . В случаи защиты учитывается только физический вред угрожающий жизни человека
@ВикторБелый-и6з
@ВикторБелый-и6з 7 жыл бұрын
Ой спасибо обрадовал. Теперь я точно знаю что машины будут наносить человеку вред, даже не осознавая этого.
@yuriynaukovedov711
@yuriynaukovedov711 7 жыл бұрын
первый закон робототехники уже не нравственый! не причинять вред это быть равнодушным=безразличным. а где же закон делай добро))) из первого законо робот может сделать вывод что можно сушествовать и без человека не делая иму вред как и пользы)
@КольцоВсевластия-б7т
@КольцоВсевластия-б7т 6 жыл бұрын
Вот это кстати - логично.
@Кротокрыс
@Кротокрыс 3 жыл бұрын
Спасибо. Вы мне дали идею.)
@amgwit8799
@amgwit8799 7 жыл бұрын
Я киборк, у меня искусственный интелект вшит в центральный процесор
@kbahtbkychob8087
@kbahtbkychob8087 5 жыл бұрын
А в чем собственно проблема? Что мешает загрузить в роботов законы людей каждый из болванчиков будет юрист-консультом и будет помогать совершенствовать законодательство, за счёт расширения базы прецедентов.
@tylindusa
@tylindusa Жыл бұрын
Зачем такие долгие рассуждения о вреде? 🙂 В законе имеется в виду, что сам РОБОТ не должен наносить вред человеку, а не то, что робот должен следить за любым вредом от всего что попало 🤣
@lordlogik
@lordlogik 6 жыл бұрын
а как будет вести себя робот без первого закона?
@Кротокрыс
@Кротокрыс 3 жыл бұрын
Чёрт знает.
@alevor7771
@alevor7771 7 жыл бұрын
Недалекое будущее. Человечество определилось с определением слова вред. И на законодательном уровне запрещенны следующие виды деятельности: 1) все виды спорта, сопряженные с риском для жизни ( т.е. все кроме шашек, шахмат и керлинга) 2) самостоятельное передвижение на механизмах, скорость которых больше 7 км/ч. 3) употребление всех веществ уменьшающих физический и умственный ресурс человека 4) запрет на малоподвижные виды работы и времяпрепровождения. 5) принудительная тренировка мышц и интеллекта под присмотром специалистов. 6) запрет на аборты и эфтаназию. 7) уничтожение всех видов оружия и механизмов двойного назначения на планете . И т.д. В результате численность человечества выросла за 100 лет до 60 млрд. все счастливы.
@Няяяняяя-ж8я
@Няяяняяя-ж8я 6 жыл бұрын
А потом сдохнут от перенаселения ,а если точнее от нехватки важных для жизнедеятельности ресурсов типо еды воды и возможно воздуха
@КольцоВсевластия-б7т
@КольцоВсевластия-б7т 6 жыл бұрын
Перенаселение - невозможно. Ибо оно противоречит Нулевому Закону. А значит ИИ попросту начнет контроль над популяцией. Начиная простыми законами и заканчивая генофагом или массовым убийством чтобы сохранить численность людей в оптимальном уровне.
@ColtColt-tk7nf
@ColtColt-tk7nf 3 жыл бұрын
Роботехники!
@srombik
@srombik 7 жыл бұрын
А как же быть с нейронными сетями? Они же сейчас очень схожи с человеком. Они уже понимают контекст...
@ВалерийШипицын-с1д
@ВалерийШипицын-с1д 7 жыл бұрын
О нейросетях вы, похоже, не слышали...
@lzsaver
@lzsaver 7 жыл бұрын
А если заменить вред на что-то более конкретное? Пока нейронкам не дали первый закон в данном виде.
@PaulSchutze34Rus
@PaulSchutze34Rus 7 жыл бұрын
А если прописать в мозги роботы стандарты ТБ? Например ПДК и прочее.
@leranovela6896
@leranovela6896 7 жыл бұрын
думаю проблема со вредом решиться когда люди научаться оцифровывать сознание и на основе этого сознания программировать роботов
@sapiens01
@sapiens01 7 жыл бұрын
Роботы пока не мыслят.Поэтому любые логические выкладки их поведения-ниачём...=)))
@dakinder1534
@dakinder1534 2 жыл бұрын
Надо просто прописать - жить вредно))
@Beloutin
@Beloutin 7 жыл бұрын
Абсолютно согласен с Торвальдом. Компьютер, на сегодняшний день - мертвая механическая система, которая двигается только по тем "коридорам", которые были заложены разработчиком. Те же механические счеты, что стояли в советские годы у кассиров. Только костяшек больше и двигаются они в миллиарды раз быстрее.
@Сергей_Шувалов
@Сергей_Шувалов 7 жыл бұрын
Могу разочаровать Торвальда, я уже создал СИИ.
@MsZrak
@MsZrak 6 жыл бұрын
и ещё,мне вот правительство нанесло вред,лишив меня денег,но тут законы азимова не помогут,ибо они сами хуже роботов.
@maxkost9805
@maxkost9805 7 жыл бұрын
Откуда Рон МакГовни знает русский язык?
@Александрдробяз-к4т
@Александрдробяз-к4т 7 жыл бұрын
а я та думал
@Romgenas
@Romgenas 7 жыл бұрын
Курение - не доказано!!!!
@АлександрЖ-ц8ю
@АлександрЖ-ц8ю 7 жыл бұрын
Схема - парадигма???!)
@Александрдробяз-к4т
@Александрдробяз-к4т 7 жыл бұрын
" Секреты world of tanks, как забрать себе все фраги " твое видео ! Это лож
@k0tovs
@k0tovs 7 жыл бұрын
18:12 "у машины такого нет" сейчас нет, но с чего ты взял что не будет?
@Кротокрыс
@Кротокрыс 3 жыл бұрын
Он нн говорил что не будет.
@ЛешийКотейкович
@ЛешийКотейкович 7 жыл бұрын
Ха, прикольно, говорит о роботах, а у самого на футболке, что нарисовано? Ммм?
@CensorsGoToHellWatchKittens247
@CensorsGoToHellWatchKittens247 3 жыл бұрын
На самом деле всё очень просто: дядя из Гугла или из Яндыкса, командуемый дядей из правительства, задаст правила работы и 0-го закона робототехники, и 1-го, и 2-го, и 3-го ;) _(Очень надеюсь, что нет.)_
@Александрдробяз-к4т
@Александрдробяз-к4т 7 жыл бұрын
" Секреты world of tanks, как забрать себе все фраги " твое видео ! Это лож
Правильный и неправильный вывод
15:11
Блог Торвальда
Рет қаралды 12 М.
Четыре закона логики - [Логика #3]
38:32
Блог Торвальда
Рет қаралды 195 М.
PRANK😂 rate Mark’s kick 1-10 🤕
00:14
Diana Belitskay
Рет қаралды 10 МЛН
Trick-or-Treating in a Rush. Part 2
00:37
Daniel LaBelle
Рет қаралды 44 МЛН
Знаешь ли ты хоть что-нибудь?
28:31
Блог Торвальда
Рет қаралды 44 М.
Генерация видео с AI | Мастер-класс с Антоном Вдовиченко
1:13:01
Лаборатория ИИ от Sketchman
Рет қаралды 2,7 М.
Ежедневные ошибки в логике - [Логика #6]
36:58
Блог Торвальда
Рет қаралды 62 М.
Zuckerberg Throws Down the Challenge: How Meta Will Revolutionize the AI World
35:07
Бережливый ИИ
Рет қаралды 12 М.
Тот самый супер секрет обучения
29:34
Блог Торвальда
Рет қаралды 68 М.