Как все просто у А. Г. Окунева! Для него одного только все просто ;-). Спасибо за научно-популярность!
@constantin67053 жыл бұрын
Было бы неплохо среди физматшкол организовывать факультативы с практическим уклоном в робототехнику, нейросети, битехнологии, механику, электронику, что бы школьники могли с детства сориентироваться, понять приложения науки и выбрать путь дальнейших интересов. (практика конечно требует денежных вложений гораздо больших чем теория, но в тоже время она вызывает более сильный интерес, когда видишь результат своих действий материализованный)
@tegerankhafizov8334 Жыл бұрын
Один из лучших ликбезов по ml и нейросетям, для новичков. Отомчно!
@ЕкатеринаСкоробогатая-ч5х3 жыл бұрын
Надо сделать так что-бы не пришлось стрелять... Как вариант написать алгоритм упреждения попытки преступления и придумать новые эффективные способы мгновенной дистанционной не летальной нейтрализации. Всем мира, добра и знаний!!
@letmethinkabout3 жыл бұрын
Здравствуйте! Поздравляем, Ваш комментарий был выбран как лучший комментарий к этому видео! Пожалуйста, пришлите ссылку на свою соцсеть где мы сможем обсудить с Вами детали получения приза от команды GetAClass )
@avoroge36143 жыл бұрын
Вопрос про гуманность вооружённой нейросети очень неоднозначен. Мне кажется, что когда человек стреляет в человека это тоже нехорошо, но наш мир так сложно и несправедливо устроен, что в ближайшее время мы никуда от этого не уйдём. Если мы хотим доверить нейросети охрану, то нужно обучить её не только быстро реагировать на цель, но и уметь находить такой путь развития событий, который понесёт за собой меньше всего жертв, а это не простая задача. Вспомните про мысленный эксперимент с двумя путями поезда, когда без вмешательства погибнут пятеро, но ваше действие может спасти их и привести к гибели одного, в которой вы будете частично виновным. Только когда мы научимся сами решать такие моральные дилеммы, мы, возможно, сможем обучить этому нейросеть.
@finikovas3 жыл бұрын
Очень интересное видео и отличный канал 👍
@vmobazer35083 жыл бұрын
Спасибо за видео, коммент в поддержку вашей работы
@biryak3 жыл бұрын
Так разве луч не модулирован по времени, чтобы можно было расстояние определять, там же тот же принцип что и в лазерном дальномере должен быть?
@ВиталийТарануха-ч7г3 жыл бұрын
Человек есть человек, и ему решаться
@ilyailinski53673 жыл бұрын
Не знаю как насчёт стрелять, а вот судей точно заменить может.
@ЭдуардСорокин-х9ъ3 жыл бұрын
Ответ на вопрос в Нагорной проповеди Спасителя. Меня тоже увлекает эта технология, очень интересно. Например обнаружение неадекватного поведения, алкогольного опьянения или оружия. Или стихийные помойки и свалки, тоже в тему нашей ментальности. Велодорожек нам не положено, так хоть беспредел кто-то сможет остановить на дороге.
@101picofarad3 жыл бұрын
16:23 кажется не точно расслышали автора, он сказал тайм оф флайт лидар - времяпролетный. По басурмански tof lidar.
@letmethinkabout3 жыл бұрын
Мы уточнили, Вы совершенно правы! Time of flight Lidar. Благодарим за комментарий. С нас сувенир от нашего канала ;)
@SaihoS13 жыл бұрын
В вопросе сформулированы все необходимые тезисы чтобы дать однозначный ответ. Осталось только добавить немного смелости и объективности. Если нейросеть точнее человека и быстрее чем нейросеть+человек, то у нее нет достойного соперника и применение ее в военных целях неизбежно. Никакие искусственные запреты не помогут, ведь нарушивший запрет сразу становится победителем. Противостоять ей может только другая нейросеть, а значит такой противовес должен существовать для баланса. На этапе тренировки очевидно будет применяться виртуализация в целях безопасности.
@melds54153 жыл бұрын
Интересней вопрос - кто принимает решение, что разрешать, а что запрещать нейросети?
@101picofarad3 жыл бұрын
Учитель.
@kuntumeitan Жыл бұрын
Прекрасный человек)
@interestinglydeliciouschin85923 жыл бұрын
7:52, так нейросеть вас одурил просто и все, он прошуршал все ваши фотки из сети и сделал такие зубы+ улыбку.
@mombetnet81333 жыл бұрын
Решение на открытие огня должен принимать человек . Пусть машина ищет отмечает сообщает пользователю, но стрелять без разрешения человека она не должна .очень сложно все это реализовать . Вдруг мышь проползет или птица ... А она откроет огонь переполошит всю охрану на объекте где она установлена . Да и взлом систем охраны никто не отменял. Человек пусть решает и потом сам договаривается со своей совестью за принятые решения .
@Nosferatu_rrr3 жыл бұрын
Открывать огонь нейронной сети можно, если скорость приближения угрожаемого объекта больше, чем скорость принятия решения и нажатия на кнопку человеком.
@RobotN0013 жыл бұрын
0:20 нейросеть ли распознавала голос ? скорее там свёртка с последующим поиском по ближайшим популярным вопросам с помощью хешей.
@interestinglydeliciouschin85923 жыл бұрын
хорошо ли будет довериться нейросети для стрельбы в людей? ответ на поверхности, смотря как обучили.
@interestinglydeliciouschin85923 жыл бұрын
туда же и входит ответ можно ли это делать нейросети, позволительно ли это.
@avd50153 жыл бұрын
Соблазн огромен, правда. Здесь либо паритет в разработке и готовности внедрения подобных сетей, либо разработка средств, лишающих сети «органов чувств»
@Peace_upon_us20243 жыл бұрын
Спасибо!
@Александршвед-г3ъ3 жыл бұрын
я считаю что даже нужно. еще 1 технология которая будет сдерживать людей от соблазна развязать даже локальную войну.
@asryfc88833 жыл бұрын
Гуманно ли стрелять с помощью нейросети? Главным вопросом уже должно быть "как это пресечь", потому что это давно работает.
@АннаТамбовцева-ц4з3 жыл бұрын
все так здорово Ура Други""
@sýntrofostoufóvou3 жыл бұрын
Почему видео доступно только по ссылке?
@letmethinkabout3 жыл бұрын
Исправили! Спасибо!
@Арина-б9и7з3 жыл бұрын
Надо поставить запрет для нейросети стрелять в людей
@Nosferatu_rrr3 жыл бұрын
Кто запретит открывать огонь роботам, тот проиграет тому, кто себя не будет ограничивать. Если ты не можешь предотвратить безобразие, нужно его возглавить(с)
@RobotN0013 жыл бұрын
5:00 вообще-то есть ещё обучение без учителя (Unsupervised learning)
@nebulousGemini3 жыл бұрын
16:22 Time-of-flight все-таки
@ЕкатеринаСкоробогатая-ч5х3 жыл бұрын
Очень интересное, познавательно-перспективное направление, продолжайте в том-же духе!
@RobotN0013 жыл бұрын
1:40 персептрон моделирует работу ... сказал нейрона или нейронов ? послышалось ед.число. А гугл создал в субтитрах более правильно ) во множественном числе ) на то, что было сказано в ед. числе говорят следующие предложения. тем не менее, персептрон это уже сеть!
@RobotN0013 жыл бұрын
11:40 вауэффекты это конечно хорошо для продвижения, но он же будет мешать научному методу из-за разных психологических особенностей человека и нейросети.
@ЕВА-в9я6е3 жыл бұрын
Скоро нейросети будут ненавидеть больше чем мигрантов)
@metas7903 жыл бұрын
Есть выход из ситуации если научить нейросеть использовать предупредительный выстрел или выстрел в оружие противника. а также возможно стрелять оружием не убивая обезвредить или усыпыть. В будушем же думаю основа войны составит Робот на Робота. и используя тепловизор они могут не быть гуманными к таким же роботам для их отличия и убийства. Раньше врагу можно было заглянуть в глаза. Сейчас же войны ведутся на расстоянии и те страны которые больше продвинутся в скорости и новизне технологий будут впереди всех.
@ЦапаризВа3 жыл бұрын
Невозможно этого избежать, почему обладателей власти это должно сдерживать, если это дешевле и эффективнее, единственны путь не использования, это не создание ! Самое печальное, что правительство не побрезгует это использовать против граждан для сохранения власти.
@RobotN0013 жыл бұрын
2:22 вообще-то были и аналоговые вычислительные машины. акцентирование на цифре лишнее тут.
@slavaslava48213 жыл бұрын
Мексика далеко-замените Ульяновских и Тольяттинских рабочих!
@RobotN0013 жыл бұрын
1:20 математический ? а если реализован на железе это уже не нейросеть ?
@TimLaizaR2283 жыл бұрын
Ну да. Компьютерная нейросеть это чисто математическая модель, работающая исключительно на операции многократного перемножения матриц весов.
@RobotN0013 жыл бұрын
@@TimLaizaR228 именно веса умножаются ? или есть ещё сигналы и есть ещё сложения ? и есть ещё функции активации ?
@yurcchello3 жыл бұрын
6:06 до 175 млрд пар
@BobiBobObana3 жыл бұрын
Да элементарно. Если человек знает что это вражеская зона, то беспилотник должен стрелять во все что движется, и не важно есть у него сейчас оружие в руках или оно спрятано под курткой, или он вообще с зонтиком в руках ходит. Когда градами лупят по площади там тоже особо выборочно никто не смотрит. Поставить беспилотнику ограничение только по территории. Ставить ограничение на рост сложно, так как можно ходить на корточках накинув плащ, сделав из взрослого эдакого лилипута. А вообще надо заняться разработкой зонтиков от беспилотников, Передвигающиеся крыши. А рядом летающие дроны которые имитируют ложные цели. Вот же есть примеры kzbin.info/www/bejne/n6uUqGx7qq6te6s Только будут они имитировать движение войск.
@Admin_password_admin3 жыл бұрын
Можно ли нейросеть обучить "гуманизму"?
@vy82_Nsk3 жыл бұрын
Стрелять или не стрелять решает уже давно , к сожалению, не человек, а деньги.
@RobotN0013 жыл бұрын
и не деньги , а власть) а деньги можно и отнять )
@radome3 жыл бұрын
отличный ролик - но что за вопрос? конечно, нужно обязательно дать нейросете возможность решения о самостоятельной ликвидации человека, и все проблемы этого мира исчезнут.
@101picofarad3 жыл бұрын
У американцев это право есть - проблем не убавилось. Даже наоборот - постоянно думаешь что твои соседи могут шмальнуть если не рассмотрят в сумерках...
@Russia54_3 жыл бұрын
Нейросеть не должна принимать решения стрелять или не стрелять. Продвинутая нейросеть должна управлять государством, улучшать экономику, решать проблемы каждого человека на Земле. Тогда стрелять ни в кого не придётся.
@RobotN0013 жыл бұрын
6:55 увы, не всегда даже имитирует. есть проблема переобучения, когда нейросеть всё просто тупо зубрит без какого-либо понимания.
@TimLaizaR2283 жыл бұрын
В этом случае добавляется регуляризация к функции активации, усложняется или облегчается модель - применяется cross-validation, когда грубо говоря выборка изначально разбивается на обучающую и тестовую.
@RobotN0013 жыл бұрын
@@TimLaizaR228 , cross-validation это валидация, а не обучение. Она уже не поможет когда переобучение уже свершилось. Или вы имели ввиду кросс-энтропию?
@TimLaizaR2283 жыл бұрын
@@RobotN001 Я имею в виду то, что с помощью кросс валидации можно обнаружить факт переобучения, когда на обучающей выборке ошибка Cost Function вроде как маленькая, а на тестовой выборке неприлично большая. Это значит что скорее всего произошло переобучение, а значит следует добавить больше данных в выборку, добавить или поменять регуляризацию или подумать об адекватности самой модели 💁♂️ В общем это чисто оценочный инструмент
@koni_nik03 жыл бұрын
100к примерно столько нужно
@obpaTu_BHuMaHue3 жыл бұрын
Хм.. доверить машине стрелять в людей.. но а как она будет определять в кого стрелять? Датчик? Просто порой и дети с гранатометами бегают :) если только забрасывать в стан врага с задачей уничтожать все живое.. видел один мультик.. где танк с мозгами реагируя на страх атаковал.. ведь свой танк бояться не будут.. короче танк убил всех :) и чужих и своих.. вполне возможно могут быть полезны к узким диапазонам. Но автономия в наш век ненадежности запчастей.....
@user-Leonidovich3 жыл бұрын
Я мультик не видел, но рассказ такой читал, автор Север Гансовский, "Полигон"
@koni_nik03 жыл бұрын
По моему очень недооценённый канал
@letmethinkabout3 жыл бұрын
Мы просто пока очень молодой канал ))
@iluhensun68843 жыл бұрын
0:15 Какого хрена смотря в наушниках у меня включился гугол??!
@101picofarad3 жыл бұрын
нейросеть его включила - ты её обманул.
@RobotN0013 жыл бұрын
1:50 что в них происходит ? по предыдущему предложению вопрос должен был касаться нейронов человеческого мозга, а ответ пошёл на нейроны искусственные.
@TimLaizaR2283 жыл бұрын
Компьютерная нейросеть не имеет ничего общего с нейронами мозга. Это всего лишь математическая модель, которая по своему образу может напоминать живые нейроны. Мужик все правильно сказал - там просто происходят многократные операции сложения и умножения, заданные определенным образом.
@RobotN0013 жыл бұрын
@@TimLaizaR228 "ничего общего" -- прям ничего? ну конечно-конечно. и мой вопрос был не в этом.