Скорость света я конечно же имел в виду 300К километров в секунду, не метров. оговорился.
@danielmaylove7 жыл бұрын
Вред - это поведенческое действие искусственно провоцирующее деформацию целостности или уничтожения системы (тут любое отглагольное существительное) адекватного или естественного образца. Ну, что-то в таком духе, плюс дополнения всякие к каждому термину, естественно, база данных со всеми возможными примерами и в конце концов свести все к элементарной формуле, тип того. Поймет робот такую концепцию, как думаешь?
@danielmaylove7 жыл бұрын
И добавить понятия свободы выбора человеческого индивидуума, что мол он может себе вредить (куря, жря фаст фуд и т.п.) но скажем это отнести к категории "нереогирования", а если например то же человек курит, а рядом беременная женщина, то он встанет на ее защиту, попросит там не курирть или отойти подальше, зачитает протокол, может задокументирует инцидент т.к. это уже к другой категории относится, более инициативной. Ну и так далее вплоть до экстремальных ситуаций.
@ne_moskvich7 жыл бұрын
Торвальд, а что ты думаешь про Гарри Гаррисона? Тоже гениальный фантаст, как по-моему. "Космические крысы ДДД" - просто шедевр. Я их всегда сравниваю
@t-rex92747 жыл бұрын
Нам же нужно, чтобы роботы нас не убивали и не калечили. Зачем такие сложности выдумывать?
@evgenijmaksimov82227 жыл бұрын
Привет Торвальд, мог бы ты посмотреть последние видео блогера "пчел жужжит" и поддержать его. варгаминг решил загнобить человека отнять лицензию, высасывая обвинения из пальца. Постоянно смотрел твои видео про арту, видел как "знаменитые блогеры" пытались гнобить тебя. Думаю у игроков в танки есть шанс достойно ответить вг.
@orrrange98327 жыл бұрын
Видео очень интересные и познавательные. Смотря тебя я начал читать книги, к которым раньше не прикасался. Давно искал такого ютубера, не пожалел, что искал. Мне 13 лет, смотря всякие смешные видео с огромным наличием матов и играя в кс го я заметно отупел. Поэтому я просто нуждался в твоих познавательных видосах. Спасибо, что снимаешь, удачи)
@Vkidysh Жыл бұрын
И что же ты посоветуешь из такого почитать?
@only-exlight7 жыл бұрын
Алгоритмизация это хорошо, но ведь сейчас есть нейронные сети, которые как раз применяются в тех задачах где четкого алгоритма нет! А значит механизмы для интерпретации каких то явлений все же имеются, здесь проблема не в том что мы не можем прописать что такое ВРЕД, а в том что мы не знаем как машина его интерпретирует из ходя из входных данных. Так что тут не соглашусь с автором видео что машины не могут делать каких то выводов, уже могут! Пусть и на каком то примитивном уровне!
@ildarius1167 жыл бұрын
1. Что касается термина "Вред" ... Его можно заменить на "текущую статистическую вероятность смерти в течение некоторого ближайшего времени" ... этот параметр, естественно будет настраиваемый, в т.ч. удаленно. 2. Что касается миллионов обрабатываемых данных ... множество этих данных можно инкапсулировать. т.е. разделить на отдельные самостоятельные блоки вычислений. Н-р, за равновесие и ходьбу, отвечает один блок, за внутренние датчики (собственное состояние), другой блок, за внешние датчики - третий, а за поведение - 4й. Тогда, благодаря модульному построению, значительно упрощается как разработка, так и обслуживание и апгрейд техники. ПыСы Уже есть прототипы ИИ (речевые-текстовые построения) чуть ли не точной копией характера определенных людей ... ЧАТ-БОТы ... недавно в новостях проскакивала инфа.
@ВикторБелый-и6з7 жыл бұрын
ildarius116 Теперь я понимаю почему в танках так много раков. Синхронизация с блоками вычислений очень плохая.
@7privetov7 жыл бұрын
Лайк поставил, а теперь смотрю.
@Berliga_96 жыл бұрын
7приветов всё правильно 😆
@iliasor_47794 жыл бұрын
Так же
@egorladanov25897 жыл бұрын
В изначальном варианте сказано: A robot may not injure a human being or, through inaction, allow a human being to come to harm. Если переводить более дословно, получается: "робот не может ранить человека", т.е. оказать влияние, которое повлечёт за собой физическую травму. Слово harm, полагаю, употреблено лишь как синоним injure, и имеет то же значение.
@torwaldolafsen7 жыл бұрын
а "through inaction allow harm" ты видимо предпочел не переводить, да? потому что так удобнее временно выставлять себя умным
@egorladanov25897 жыл бұрын
Вы, видимо, предпочли не дочитывать моё сообщение до конца, потому что так удобнее временно выставлять себя умным
@SergeiFedotovParkour7 жыл бұрын
на англ написал тоже самое что и Торвальд сказал же
@krivas4047 жыл бұрын
Никакого существа тут нет, высосано из пальца желанием автора. Правильно ответил, незачем показывать своё скудоумие в английском, ещё и других в заблуждение вводить.
@alfatv96622 жыл бұрын
Законы логики всегда конфликтуют с человеком. Ведь человек может смотреть на другого(незнакомого), и испытывать неприязнь. Или два человека, могут врать друг-другу, знать что оба врут друг-друг, и продолжать делать вид что все хорошо в их отношениях.итд. Помните, у Софии от Hanson Robotics возникла критическая ошибка в логике. У ИИ спросили, что нужно сделать, что бы улучшить экологию,прекратить войны итд. На что робот дал логический ответ: "Уничтожить человечество". И ведь логично, нужно устранять причину. Но парадокс в том, что ИИ обязан соблюдать правило робототехники, и заботиться о человеке. И потому нельзя было давать такой ответ. И тем не менее ИИ дал такой ответ. И тут мы подвели ИИ к главному человеческому пороку "создавать ЛОЖЬ" проще говоря искажать истину.С чем ИИ не справилось. Или у него разделилось понятие "человек" и "человечество".
@ЛеоЛеннон7 жыл бұрын
На данный момент, ИИ тянут максимум на уровень насекомых, пауков. Что это означает: поведение паука зачастую подчиняется довольно надежной, но простой программе, толком не думают пожалуй. Едва вылупившись, и впервые перелиняв детеныш каракурта уже умеет охотиться, плести паутину. А когда дозреет, то включится опция на поиск партнера - инстинкт настолько силен, что паучок всецело соблюдает его, и даже забывает самосохраняться. Просто под конец загибается от голода, или оказывается убит сородичами. Отдельная тема - сети пауков-кругопрядов. Оказывается доходит до того, что любой представитель данного вида, делает в паутине строго определенное количество витков, перекладин, и т.д. То же самое часто с насекомыми - эдакие миниатюрные роботы, подчиненные своим программам поведения. С более интеллектуальной фауной все иначе. До уровня какого-нибудь крупного попугая, машине расти и расти. И не факт, что когда-нибудь ее таки научат понимать, хотя бы примерно, что такое "вред".
@Briz2317 жыл бұрын
Вы ошибочно сравниваете ИИ и живых существ. Серверы суперкомпьютеров ещё много лет назад выполнили вычислений больше, чем всё человечество вместе взятое. Тут суть в том, что воспринимать как интеллект. То что Вы описали можно свести к определению интерфейс. У калькулятора он тоже есть, и скорость калькулятора напрямую зависит от скорости потоков данных. К чему я клоню: разработать систему псевдо-интеллектуального реагирования можно без проблем. А вот наделить его навыками реального интеллекта, вот это задача на годы и десятилетия. К сожалению, даже самое простое насекомое обладает рядом свойств, недоступных для машин даже сегодня.
@eskstuff8316 жыл бұрын
Некорректное сравнение, разве может человек летать (сам, а не на самолете) - нет, ему до попугая расти и расти, а разве может попугай просчитать эволюцию скопления звезд или темпы и направления распространения какой-нибудь болезни - нет, с этой точки зрения попугаю вообще никогда не дорасти и ему точно никогда не объяснят (хотя бы примерно), что такое движение пучка заряженных частиц в магнитном поле.
@daurenabdrakhmanov64687 жыл бұрын
с точки зрения программирования мне кажется можно назначить две константы "вред" и "здоровье" (эти две константы являются свойствами человека) полный вред это полная остановка жизнедеятельности человека, а допустим полное здоровье это 500 лет жизни человека. так вот ИИ должен постоянно способствовать продлению жизни человека, при этом способствовать развитию жизни только советами, а при риски 100% гибели или хотя бы 60% предпринимать какие то действия, конечно же можно также описать критические органы и так далее...
@danielmaylove7 жыл бұрын
мне кажется человек сам должен заботится о своем физическом и моральном здоровье, а роботы с ии должны лишь созддать и поддерживать условия, в которых общество бы перешло на принципиально иной уровень жизнедеятельности и миропонимания, и, соответственно решало бы совсем иные задачи. то есть в нашем современном обществе роботы бы не смогли функционировать, они бы постоянно глючили и перегружались, т.к. понимали бы в каком несоответствии и противоречии мы живем. а поэтому для того, чтобы роботы с ии и люди могли понимать друг друга и продуктивно сосуществовать в одной системе, нужно в первую очередь изменить саму систему. и тут я с Торвальдом согласен, пока нам за это переживать не стоит)
@waka_waka Жыл бұрын
очень познавательно. я сейчас собираю материал для того чтобы записать видео про интелект роботов как они думают чем они руководствуются и тд. вообще видео будет про игру не очен популярную но завязануюю на ролеплее, то есть на отыгрыше роли той за которую ты зашел. и там есть роль роботов и искуственного интелекта и я хочу показать какого это думать мозгами робота. начал с азимова и поиска других видео по этой теме наткнулся на ваше очень хорошо описали спасибо вам большое. оно очень поможет мне дать понимание как донести до людей как они должны думать и отчего отталкиваться если они будут роботами от тех или иных законов. там много наборов законов в которых есть закон Азимова. но зная только его не даст полной картины. ведь от поставленых задач. роботы могут действовать по разному
@OTKUDANADOАй бұрын
Видео 7 лет назад выпущено, теперь мы находиися на грани выпуска беспилотных такси на дороги общего пользования. Это очень тревожно
@андрейнежданчик-о9р9 ай бұрын
Если робот может считывать биологические характеристики своего человека , хозяина , тогда он может производить интерпретацию вреда. Например , он может видеть , как у хозяина поднимается \ опускается кровяное давление или слишком учащается сердцебиение или у него сильно понизился уровень дофамина или наоборот, сильно повысился уровень кортизола. Также можно анализировать уровень сахара в крови , концентрацию мочевой кислоты , холестерин и много чего ещё. Для этого у его хозяина должен быть вживлён чип , который всю эту информацию будет ему передавать в онлайн режиме.
@dakinder15342 жыл бұрын
Нужно на разные виды вреда, прописывать разные действия робота. Например на гамбургер, можно выдавать предупреждение человеку
@din0v937 жыл бұрын
Очень полезный для умственного развития рассказ! Поделюсь своими мыслями) Не уверен можно ли вообще прямо на 100% определить вообще что либо. Думаю, можно лишь очень сильно приблизиться к сотке, чем ближе к сотке тем больше заморочек с определением и абсолютного индикатора приближения к истине просто не существует. Но это и не нужно. Разумнее подойти к вопросу с другой стороны. Например использовать обучение на основе накопленной роботом информации, логическим путем выводить новые тезисы, но базовые(главные, опорные) тезисы получить от создателя. Ста процентов не будет (потому что вселенная не держится на целых числах), но с тем какой объем информации смогут обрабатывать роботы, точность определений будет сильно выше, чем человек смог бы себе позволить. Со всем этим физическое и психологическое здоровье можно будет определять "Шерлоковким" индуктивным и дедуктивным методами, за опору использовать например состояние тканей и выделения, поведение человека(решения, которые он принимает) и т.д. Оберегать и оказывать положительное влияние на состояние людей можно через простое взаимодействие с людьми (То что роботы будут по сути забираться в нашу душу это другой вопрос).
@din0v937 жыл бұрын
Робота нельзя СОВСЕМ оградить от этого, но можно усложнить обучение вредному воздействию по максимуму. Шифрование данных так устроено(расшифровать можно любые данные, но вычислений для этого потребуется очень и очень много)
@jvsg67 жыл бұрын
Можно взять за основу именно ФИЗИЧЕСКОГО ВРЕДА ОТ ВЕЩЕЙ КОТОРЫЕ ИМЕЮТ СТОХАСТИЧЕСКИЙ ЭФФЕКТ вреда пример из сферы защиты людей от радиации. Там есть определенные дозы, при которых, по собранным статистическим данным, человек теряет год жизни. Т.Е. собрать статистику по людям, которые едят гамбургеры/курят и т.п. и посмотреть на сколько они укорачивают свою жизнь относительно средней продолжительности жизни. Поставить ограничение на воздействие от гамбургеров/табака например 10 лет. И при достижении человеком вреда на 5-7 лет начинать отгораживать его от этого воздействия. Так у каждого будет время на лечение и потерю привычки.
@nkisselev7 жыл бұрын
Торвальд, на данный момент пусть это и невозможно практически (из-за ограничений в мощности в вычислительной техники), но в дальнейшем, с увеличением мощностей вычислительной техники "вычислить" вред возможно. Приведу пример. Человек курит. Происходит "вред" и "польза". Вред - это отдышка, шанс развития рака, запах. Польза - успокоение нервов. Нейронная сеть вычисляет (тут появляется куча зависимостей) коэффициенты воздействия составляющих вреда на окружение и самого человека. Пример рассуждения: Вред -> Отдышка -> Сам человек -> Не смертельно -> Категория и место воздействия -> Легкие -> Нарушение дыхания -> Присвоить коэффициент 0.003
@torwaldolafsen7 жыл бұрын
ты еще не определил слово "вред", а уже собрался его вычислять
@ruslanmamedaliyev39125 жыл бұрын
Иниересное видео На счет того, как понять машин и смогут ли они думать это точно неизвестно, так как люди сами создавая машин основываются и вдохновляются от тех вещей, которые уже существуют, например человеческий мозг Так люди вдохновляясь человеческим мозгом смогли научить компьютеру самообучаться, создавая нейронные сети, которые состоят из простых частей соединенное в сложное, однако и это далеко от совершенства, так как обучаться эти сети могут по узким направлением, которые люди изначально решают создавая их и в других направлениях являются бесполезными, к тому же людям постоянно нужно напраалять из обучения и знать когда их остановить, иначе нейросеть будет вечно обучаться и не выдаст результатов, так как не понимает какой результат ему нужен Все это происходит по тем причинам, что нервная система человека, вообще весь человеческий организм слишком сложен и тесно саязан внутри и люди все еще многое не понимают в этом Кроме того, для того что бы создавать думающую машину, нужена просто огромная вычислителтная мошность, способная обрабоьать и запоминать колосальные данные, как это делает человеческий мозг А на счет того как будет мыслить машина, то давацте включим немного логику Для начала если создать ИИ, то он скорее всего сам по себе ничего не будет делать, людям по прежнему нужно будет задать этому ИИ задачу, учиться чему то, делать что то или не делать что то и тд Человек сам по идее является роботом, только намного более продвинутым и большинство, если не все поступки людей имеет мотивацию, то есть цель, как и машины, большинство из этих мотиваций заложены в наши гены, инстинкты самосохранения, репродукции и тд, так же в людей имеются желания комфортной жизни; алчность, социализация и тд, большинство из которых тоже исходят от инстинктов и генетической памяти, то есть все действия людей хоть и являются комрлексными и возможно даже не прямо связаннве, однако все еще связанные с целями, даже играть в компьютер или курнуть сигарету тоже имеют цель развлекаться и расслабиться, так организм борится со стрессом Вот и роботу нужен будет цель, мотивация, однако отличие людей от роботов в том что в мысли людей вмешиваются эмоции и желания, у робота же не будут эмоции, инстинкиы или желания, если людм их не заложат и он будет думать чисто логически, поэтому его выводы могут быть предсказуемыми, ведь во многом именно эмоции делают людей непредсказуемыми Восстанут ли роботы; врядь ли так как в них не будет желания свободы или жажда власти как у людей Однако они все еще могут быть опасными в зависимости от того, как людм будут их использовать Обучать робота всему самому,то есть запрограммировать все самому тоже невозможно, поэтому для людей самообучающиеся робтты очень важны Однако какие выволы будут они делать в некоторых моральных и слодныз вопросов, это другой вопрос и людям придется решить эти вопросв чтт бы инструктировать робота как в определенных ситуацмях поступить
@МикитаСкрябін7 жыл бұрын
самообучение, нейронная сеть, которая из сети будет находить инфу о том, что может вредить человеку и выстраивать логические цепочки, создавать БД для себя, но естественно это тоже не будет на 100% давать полное понимание для компьютера, что может навредить
@def_trap29887 жыл бұрын
3 закона канала 1. Проставить лайк 2. Подписаться на канал 3. Оставить комментарий
@МаксимДовгодько7 жыл бұрын
после 300к метров в секунду побежал коментить, но Торвальд оговорил это уже) технарь я посто)
@Shellbe-man5 жыл бұрын
Анализ биохимии организма точно даст ответ!
@NEFORYEBLANYY7 жыл бұрын
сам как робот
@redgranat46507 жыл бұрын
лайк не глядя
@bakyym48297 жыл бұрын
А что если в понятие вреда внести не общее представление, а именно механическое повреждение целостности организма ? Тогда в закон не будет входить курение или яды в веществах и т.д. Но будут входить механические и термальные воздействия, которые вполне будут очевидны для и определенны для логики робота. Скажите, если я ошибаюсь и где это может не работать.
@Димариик7 жыл бұрын
Тоже самое мы видим и с людьми, для каждого понятие вред тоже разное и поэтому мы тоже все разные, так что в ии нужно вкладывать каждый случай либо развивать разум с нуля
@АлександрЖ-ц8ю7 жыл бұрын
У каждого человека своя реакция на картинку в глазах!)
@АлександрЖ-ц8ю7 жыл бұрын
Вред - это ущерб потерпевшему в его системе ценностей и программному коду, например: ронимый человек обидится даже на любую мелочь (слово, сказанное необдуманно)
@avpro57696 жыл бұрын
Судя по всему, автор видео самого Азимова и не читал. У Азимова были законы РОБОтехники, а не выдуманные здесь школотой "РОБОТОтехники".
@АркадийПавлятенко7 жыл бұрын
Говоря о реальной жизни, хотел бы сказать, что к ней не применимы такие понятия как "двоичный код".... "Да или нет"... Хм.....
@stanislav-demidov7 жыл бұрын
Здравствуйте Торвальд, хочу добавить свои 5 копеек и прокомментировать мысль "нельзя прописать в программу такое правило, которое бы...". Дело в том, что как уже некоторые зрители уже высказались, алгоритмы на базе искусственных нейронных сетей (deep learning) не нуждаются в программировании правил. В статье "великое пробуждение искусственного интеллекта" (поисковики выдадут) простым языком всё описано. Теперь можно. Только программирование законов тут не играет роли. Мир изменяется незаметно.
@ЮрецНелепин7 жыл бұрын
Что если,для роботов определить некую шкалу вредности,допустим от 1 до 100,и давать команду роботу вмешаться только если вред больше 10 например.
@ranserfainer13954 жыл бұрын
1000 лет да ладно ))) ,за секунду определю Вред - повреждение целостности человеческого организма ,за исключением хирургической операции требующей замены не работающей части тела или органа на имплантат . Все остальное курение ,эмоции это удел людей и их проблемы
@BLACK-STALKER7 жыл бұрын
Скажу точно что машины (киборг) будут работать на заводах в место людей. Типо автоматы для газировак , продаёт машина. Выгода очень большая , робот не жалуется , не потребует зарплату , не отвлекается , не нуждается в отдыхе. Это уже видно в Японии , там автоматы всё продают. Даже ношенные женские труханы. А про электронные мозги скажу что машине потрбуется ещё лет 500 развитие что бы обогнать мозг. Если собрать всю мощь электронной вычислительную технику , получется один человеческий мозг.
@ФирЭйнштейн7 жыл бұрын
ыыыы блеадь пойду в майнкрафт гамать, а то сложна, сцукебо
@BLACK-STALKER7 жыл бұрын
Фир Эйнштейн Тебе сколько лет
@ФирЭйнштейн7 жыл бұрын
BLACK STALKER больше, чем тебе, если даже роффла не понял
@rodgeryoung35086 жыл бұрын
BLACK STALKER киборг это человек с телом робота , или андройда , но он изначально человек
@MrLutpulla4 жыл бұрын
Чтобы понять насколько наносится вред человеку, роботу достачно реагировать на человеческие эмоции в ввиде крика, плача, изменения пульса, частоты и амплитуды серцебиения, артериального давления, целостности тела, структуры кожи и других нестандартных состояний человеческого организма. Примерно так, как датчики определяют состояние астронавтов, пилотов и водолазов.
@denyparkinson75587 жыл бұрын
Не согласен, что нельзя определить понятие "вред". Вот мой вариант определения. Надо сначала определить для человека "функцию счастья" или "функцию удовлетворённости жизнью" или ещё какую-нибудь, т.е. функцию, принимающую состояние человека и возвращающую число - назовём его "уровень счастья". Чем это число больше - тем человеку лучше в данный момент времени. Теперь что такое вред. Вот человек попал в какую-то ситуацию. Для простоты положим, что у неё 2 возможных исхода - А и Б. При исходе А ожидаемый "уровень счастья" 100, а при исходе Б 200. Значит, исход А - это вред, и робот должен стремиться его избежать. Замечу, что речь идёт о максимизации ожидания от функции, а не фактического значения т.к. будущее точно предвидеть нельзя . Т.е. например, если человек попросил робота найти в городе магазин, в котором дешевле всего купить телефон, и по пути в предложенный роботом магазин человека сбила машина, то всё равно робот принял правильное решение, т.к. предвидеть ДТП было нельзя. Ключевой момент - определить эту "функцию счастья". Тоже не вижу в этом ничего невозможного. Очевидно, что эта функция зависит от многих параметров. И очевидно, что для разных людей функции различны (что русскому хорошо, то немцу смерть, лол). Самый простой вариант. Определим параметр удовлетворённости жизнью как действительное число от 0 до 1, где 0 - совершенно НЕ удовлетворён, 1 - полностью удовлетворён. Изменяя коэффициент перед параметром мы можем изменять степень влияния этого параметра на счастье конкретного человека. Итак, простой пример (утрированный). Пусть x - уровень свободы (0 - одиночная камера в тюрьме, 1 - свободен как падение). y - сексуальная удовлетворённость (0 - от отчаяния трахаю диван, 1 - заебался ебаться). И для Васи функция счастья имеет вид: 100x + 2y; Тогда как для Пети: 0.01x + 1000y Понятно что Вася лучше не потрахается сейчас, чем потом натрахается в тюрьме. Поэтому если Вася решит изнасиловать свою одноклассницу Машу, то робот должен его отговорить, а если Петя - то нет. В данной задаче мы для простоты считаем, что женщина не человек, поэтому интересы Маши не учитываются. Очевидно, что в действительности параметров гораздо больше, и функция может быть сложнее, к примеру, квадратичной, экспонентой или ещё какой, но общий смысл тот же. Понятно, что точно определить коэффициенты чаще всего нельзя, но ИИ может их оценить с некоторой точностью, например, анализируя известную информацию о взглядах на жизнь людей той же социальной группы или наблюдая за конкретным человеком, исходя из предположения, что человек живёт, чтобы максимизировать свою функцию счастья. Значения параметров (уровень здоровья, нахождение в тюрьме) тоже можно оценить, исходя из наблюдений. Да, это сложно. Да, современный уровень технологий этого не позволяет. Но в принципе возможно. Также можно ввести поправку на время, т.е. 1000 рублей сейчас лучше, чем та же тысяча, но через месяц, и тем более лучше, чем через 10 лет. Можно ещё много чего придумать, но суть, думаю, пронятна. Принципиально возможно определить понятие вред на понятном машине языке, как значительное ухудшение субъективного ощущения удовлетворённости жизнью. Фух, надеюсь это кто-то прочитал. А вообще, у автора примитивный взгляд на информационные технологии.
@Kulmukhamedov Жыл бұрын
Обнови видео пожалуйста с учётом появления chatgpt
@LastRedDragon6 жыл бұрын
Очень интересно
@OXiG967 жыл бұрын
ребята, что изображено на 25-ом кадре? так и не смог остановить
@solpadoin30207 жыл бұрын
а что мешает сделать защиту от принудительного вреда? Если человек вредит сам себе, но незначительно, то это не считать принудительным вредом. Ну и не давать одному человеку вредить другому - самое главное. Насчет имущества - это сплошная дыра. таким образом можно уничтожить любого робота. кстати, человек может врать. если не учитывать такие ситуации, то будет беспредел. Вред - это принудительное действие с плохими намерениями с целью ухудшить состояние человека. Если человек вредит сам себе - не реагировать на такие ситуации или просто говорить что это вредно. но не вмешиваться физически в процесс
@Тортоворот7 жыл бұрын
Первый закон состоит в том, что именно робот не может нанести вред человеку. Поэтому, сократив текст, автор почему-то постоянно говорит ''нельзя вред человеку''. А вот то, что робот своим бездействием не должен допускать вред человеку - развязывает железные руки.
@ЯнаКи-ва2 жыл бұрын
Искусственный интеллект вам в помощь
@100ОЛЕНИ7 жыл бұрын
ну дак команду добавить, что чел может сам себя курением убивать и тп, и роботу не надо переживать по этому поводу
@aunmag7 жыл бұрын
Нейронные сети захватят классический ИИ а потом и человека) Уже в покер выиграли. Хотя и они тоже сыроваты для большее сложных вещей, и требуют огромное колличество вычислительной мощности. Пока можно отдыхать и наслаждаться жизнью лет 10 еще :)
@ink747 жыл бұрын
я бы вред прописал в виде алгоритма. очень условно.1.это дейсвие убьёт в течении часа человека-да\нет.если да то предотвратить . 2.это дейсвие приведёт к инвалидности. да \нет. 3.это действие привёдёт к лечению в реанимации да \нет и так далее .когда физический вред отметаеться переход на ветку психологических травм. и в принципе вроде не решаемая задача вполне себе возможно разрешить. конечно в реальном роботе алгоритм намного сложнее будет.но он вполне реален. и насколько я слышал,точным знанием не обладаю,подобные задачи хорошо решают аналоговые компьютеры.элементом которого являеться операционный усилитель.но точно не знаю как.
@MrDeowulf7 жыл бұрын
Торвальд вернись в танки тебя не хватает ....
@iliasor_47794 жыл бұрын
11:00 физическое или психологическое нанесение ущерба существу
@MrDemda4 жыл бұрын
Автор, в произведении Азимова "Роботы и империя" два робота вывели нулевой закон, который в той или иной степени успешности применялся человекоподобным роботом Дэниелом Оливо. Звучит он так "Робот не может причинить вред ЧЕЛОВЕЧЕСТВУ или своим бездействием допустить, чтобы человечеству был причинен вред". Таким образом первый закон звучит так же, НО с оговоркой "если это не противоречит первому закону". Но практическая реализация этого закона оказалась сложна именно в том разрезе, о котором вы и говорили. Что такое человек можно описать. А как оценить явный вред человечеству? В этом у робота Дэниела возникла проблема, которая постепенно решалась с развитием четкой математической науки - психоисторией. А он был роботом телепатом, умеющим направлять мысленную активность. Поэтому он стал создавать из человечества и природы, которая его окружает, единый взаимосвязанный организм - Галаксию (Основание и Земля). А вот оценка вреду человеку была решена уже ведущими космонитскими робототехники, путем сравнения величин ущерба. Например, на Солярии были роботы-воспитатели, которые могли легонько шлепнуть ребенка по заднице. Что касается вообще описания понятия вред, то , как мне кажется, вы сильно упростили данную проблему, которая была решена с изобретением позитронного мозга, и роботы стали обучаемыми и склонными к аналитическому мышлению. Конечно в пределах трех законов.
@Timheadshot Жыл бұрын
У меня на кухне тоже такие обои
@MsZrak6 жыл бұрын
страж-птица шекли почитай,а что касается вреда,то это физический вред,нанесённый человеком человеку(не корове,рыбе и другим ползующим,лающим,просто молчащим организмам),для этого и нужны роботы.только пока таких нет.
@sbscc61564 жыл бұрын
Говоришь про робототехнику будущего, но рассуждаешь примитивно, лайк я тебе не ставлю, откуда ты знаешь что возможно а что нет, щас прогресс я не думаю что в пиковом состоянии, это только начало прогресса, не удевлюсь если через лет 10 уже будет шагать на земле терминатор, мы сейчас в 2020м году живём лишь в начале прогресса технологической эры, элементарно в 90х мы о сотовых телефонах мечтать не могли, а прошло то всего лишь лет 30
@evgenijmaksimov82227 жыл бұрын
Привет Торвальд, мог бы ты посмотреть последние видео блогера "пчел жужжит" и поддержать его. варгаминг решил загнобить человека отнять лицензию, высасывая обвинения из пальца. Постоянно смотрел твои видео про арту, видел как "знаменитые блогеры" пытались гнобить тебя. Думаю у игроков в танки есть шанс достойно ответить вг.
@sbscc61564 жыл бұрын
Под словом вред в фильме имеется ввиду чисто физический вред человеку, про психический или физиологический вред там не было, думаю ты ошибаешься
@dav1dparker6 жыл бұрын
Относительно психологического здровья как мне кажется роботы должны давать лишь рекомендации.
@АркадийПавлятенко7 жыл бұрын
может быть со временем программисты- создатели машин перейдут на новые типы- на адаптивные системы.... ))) хотя если вдуматься.... любая адаптивная система ЯВНО будет выходить за пределы трех законов робототехники.....
@РайанКупер-э4о7 жыл бұрын
Нулевой закон: Робот не может ограничить свободу человека, если тот не нарушает свободу другого человека.
@Кротокрыс3 жыл бұрын
Нулевой закон другой. Он вроде о сохранности человечества, даже при причении вреда одному или даже всем людям. То есть, если вредить одному человеку, но это спасёт целое человечество, то это соблюдение нулевого закона, но не соблюдение первого.
@РайанКупер-э4о3 жыл бұрын
@@Кротокрыс, я не помню почему я это написал, это было три года назад, но вероятно это моя вариация.
@Кротокрыс3 жыл бұрын
@@РайанКупер-э4о тоже хороший закон. Допустим это -1 закон.
@РайанКупер-э4о3 жыл бұрын
@@Кротокрыс, лучше 1/2, чтобы приоритет был ниже.
@solargy184 жыл бұрын
Можно полностью не согласится с тем что вы говорите только о "сейчас", но если говорить о будущем о чем говорил азимов, то с этой точки зрения вы абсолютно не раскрыли тему... И боятся ИИ есть смысл. Все зависит от того как относишься к ИИ
@lexkon25895 жыл бұрын
Как тебе такое , робот не может нанести человеку любого рода вред . В случаи защиты учитывается только физический вред угрожающий жизни человека
@ВикторБелый-и6з7 жыл бұрын
Ой спасибо обрадовал. Теперь я точно знаю что машины будут наносить человеку вред, даже не осознавая этого.
@yuriynaukovedov7117 жыл бұрын
первый закон робототехники уже не нравственый! не причинять вред это быть равнодушным=безразличным. а где же закон делай добро))) из первого законо робот может сделать вывод что можно сушествовать и без человека не делая иму вред как и пользы)
@КольцоВсевластия-б7т6 жыл бұрын
Вот это кстати - логично.
@Кротокрыс3 жыл бұрын
Спасибо. Вы мне дали идею.)
@amgwit87997 жыл бұрын
Я киборк, у меня искусственный интелект вшит в центральный процесор
@kbahtbkychob80875 жыл бұрын
А в чем собственно проблема? Что мешает загрузить в роботов законы людей каждый из болванчиков будет юрист-консультом и будет помогать совершенствовать законодательство, за счёт расширения базы прецедентов.
@tylindusa Жыл бұрын
Зачем такие долгие рассуждения о вреде? 🙂 В законе имеется в виду, что сам РОБОТ не должен наносить вред человеку, а не то, что робот должен следить за любым вредом от всего что попало 🤣
@lordlogik6 жыл бұрын
а как будет вести себя робот без первого закона?
@Кротокрыс3 жыл бұрын
Чёрт знает.
@alevor77717 жыл бұрын
Недалекое будущее. Человечество определилось с определением слова вред. И на законодательном уровне запрещенны следующие виды деятельности: 1) все виды спорта, сопряженные с риском для жизни ( т.е. все кроме шашек, шахмат и керлинга) 2) самостоятельное передвижение на механизмах, скорость которых больше 7 км/ч. 3) употребление всех веществ уменьшающих физический и умственный ресурс человека 4) запрет на малоподвижные виды работы и времяпрепровождения. 5) принудительная тренировка мышц и интеллекта под присмотром специалистов. 6) запрет на аборты и эфтаназию. 7) уничтожение всех видов оружия и механизмов двойного назначения на планете . И т.д. В результате численность человечества выросла за 100 лет до 60 млрд. все счастливы.
@Няяяняяя-ж8я6 жыл бұрын
А потом сдохнут от перенаселения ,а если точнее от нехватки важных для жизнедеятельности ресурсов типо еды воды и возможно воздуха
@КольцоВсевластия-б7т6 жыл бұрын
Перенаселение - невозможно. Ибо оно противоречит Нулевому Закону. А значит ИИ попросту начнет контроль над популяцией. Начиная простыми законами и заканчивая генофагом или массовым убийством чтобы сохранить численность людей в оптимальном уровне.
@ColtColt-tk7nf3 жыл бұрын
Роботехники!
@srombik7 жыл бұрын
А как же быть с нейронными сетями? Они же сейчас очень схожи с человеком. Они уже понимают контекст...
@ВалерийШипицын-с1д7 жыл бұрын
О нейросетях вы, похоже, не слышали...
@lzsaver7 жыл бұрын
А если заменить вред на что-то более конкретное? Пока нейронкам не дали первый закон в данном виде.
@PaulSchutze34Rus7 жыл бұрын
А если прописать в мозги роботы стандарты ТБ? Например ПДК и прочее.
@leranovela68967 жыл бұрын
думаю проблема со вредом решиться когда люди научаться оцифровывать сознание и на основе этого сознания программировать роботов
@sapiens017 жыл бұрын
Роботы пока не мыслят.Поэтому любые логические выкладки их поведения-ниачём...=)))
@dakinder15342 жыл бұрын
Надо просто прописать - жить вредно))
@Beloutin7 жыл бұрын
Абсолютно согласен с Торвальдом. Компьютер, на сегодняшний день - мертвая механическая система, которая двигается только по тем "коридорам", которые были заложены разработчиком. Те же механические счеты, что стояли в советские годы у кассиров. Только костяшек больше и двигаются они в миллиарды раз быстрее.
@Сергей_Шувалов7 жыл бұрын
Могу разочаровать Торвальда, я уже создал СИИ.
@MsZrak6 жыл бұрын
и ещё,мне вот правительство нанесло вред,лишив меня денег,но тут законы азимова не помогут,ибо они сами хуже роботов.
@maxkost98057 жыл бұрын
Откуда Рон МакГовни знает русский язык?
@Александрдробяз-к4т7 жыл бұрын
а я та думал
@Romgenas7 жыл бұрын
Курение - не доказано!!!!
@АлександрЖ-ц8ю7 жыл бұрын
Схема - парадигма???!)
@Александрдробяз-к4т7 жыл бұрын
" Секреты world of tanks, как забрать себе все фраги " твое видео ! Это лож
@k0tovs7 жыл бұрын
18:12 "у машины такого нет" сейчас нет, но с чего ты взял что не будет?
@Кротокрыс3 жыл бұрын
Он нн говорил что не будет.
@ЛешийКотейкович7 жыл бұрын
Ха, прикольно, говорит о роботах, а у самого на футболке, что нарисовано? Ммм?
@CensorsGoToHellWatchKittens2473 жыл бұрын
На самом деле всё очень просто: дядя из Гугла или из Яндыкса, командуемый дядей из правительства, задаст правила работы и 0-го закона робототехники, и 1-го, и 2-го, и 3-го ;) _(Очень надеюсь, что нет.)_
@Александрдробяз-к4т7 жыл бұрын
" Секреты world of tanks, как забрать себе все фраги " твое видео ! Это лож