Машинное обучение. Зачем нужны нейросети

  Рет қаралды 4,254

GetAClass - Просто наука

GetAClass - Просто наука

Күн бұрын

Пікірлер: 100
@svetla.no4ka15
@svetla.no4ka15 3 жыл бұрын
Как все просто у А. Г. Окунева! Для него одного только все просто ;-). Спасибо за научно-популярность!
@constantin6705
@constantin6705 3 жыл бұрын
Было бы неплохо среди физматшкол организовывать факультативы с практическим уклоном в робототехнику, нейросети, битехнологии, механику, электронику, что бы школьники могли с детства сориентироваться, понять приложения науки и выбрать путь дальнейших интересов. (практика конечно требует денежных вложений гораздо больших чем теория, но в тоже время она вызывает более сильный интерес, когда видишь результат своих действий материализованный)
@tegerankhafizov8334
@tegerankhafizov8334 Жыл бұрын
Один из лучших ликбезов по ml и нейросетям, для новичков. Отомчно!
@ЕкатеринаСкоробогатая-ч5х
@ЕкатеринаСкоробогатая-ч5х 3 жыл бұрын
Надо сделать так что-бы не пришлось стрелять... Как вариант написать алгоритм упреждения попытки преступления и придумать новые эффективные способы мгновенной дистанционной не летальной нейтрализации. Всем мира, добра и знаний!!
@letmethinkabout
@letmethinkabout 3 жыл бұрын
Здравствуйте! Поздравляем, Ваш комментарий был выбран как лучший комментарий к этому видео! Пожалуйста, пришлите ссылку на свою соцсеть где мы сможем обсудить с Вами детали получения приза от команды GetAClass )
@avoroge3614
@avoroge3614 3 жыл бұрын
Вопрос про гуманность вооружённой нейросети очень неоднозначен. Мне кажется, что когда человек стреляет в человека это тоже нехорошо, но наш мир так сложно и несправедливо устроен, что в ближайшее время мы никуда от этого не уйдём. Если мы хотим доверить нейросети охрану, то нужно обучить её не только быстро реагировать на цель, но и уметь находить такой путь развития событий, который понесёт за собой меньше всего жертв, а это не простая задача. Вспомните про мысленный эксперимент с двумя путями поезда, когда без вмешательства погибнут пятеро, но ваше действие может спасти их и привести к гибели одного, в которой вы будете частично виновным. Только когда мы научимся сами решать такие моральные дилеммы, мы, возможно, сможем обучить этому нейросеть.
@finikovas
@finikovas 3 жыл бұрын
Очень интересное видео и отличный канал 👍
@vmobazer3508
@vmobazer3508 3 жыл бұрын
Спасибо за видео, коммент в поддержку вашей работы
@biryak
@biryak 3 жыл бұрын
Так разве луч не модулирован по времени, чтобы можно было расстояние определять, там же тот же принцип что и в лазерном дальномере должен быть?
@ВиталийТарануха-ч7г
@ВиталийТарануха-ч7г 3 жыл бұрын
Человек есть человек, и ему решаться
@ilyailinski5367
@ilyailinski5367 3 жыл бұрын
Не знаю как насчёт стрелять, а вот судей точно заменить может.
@ЭдуардСорокин-х9ъ
@ЭдуардСорокин-х9ъ 3 жыл бұрын
Ответ на вопрос в Нагорной проповеди Спасителя. Меня тоже увлекает эта технология, очень интересно. Например обнаружение неадекватного поведения, алкогольного опьянения или оружия. Или стихийные помойки и свалки, тоже в тему нашей ментальности. Велодорожек нам не положено, так хоть беспредел кто-то сможет остановить на дороге.
@101picofarad
@101picofarad 3 жыл бұрын
16:23 кажется не точно расслышали автора, он сказал тайм оф флайт лидар - времяпролетный. По басурмански tof lidar.
@letmethinkabout
@letmethinkabout 3 жыл бұрын
Мы уточнили, Вы совершенно правы! Time of flight Lidar. Благодарим за комментарий. С нас сувенир от нашего канала ;)
@SaihoS1
@SaihoS1 3 жыл бұрын
В вопросе сформулированы все необходимые тезисы чтобы дать однозначный ответ. Осталось только добавить немного смелости и объективности. Если нейросеть точнее человека и быстрее чем нейросеть+человек, то у нее нет достойного соперника и применение ее в военных целях неизбежно. Никакие искусственные запреты не помогут, ведь нарушивший запрет сразу становится победителем. Противостоять ей может только другая нейросеть, а значит такой противовес должен существовать для баланса. На этапе тренировки очевидно будет применяться виртуализация в целях безопасности.
@melds5415
@melds5415 3 жыл бұрын
Интересней вопрос - кто принимает решение, что разрешать, а что запрещать нейросети?
@101picofarad
@101picofarad 3 жыл бұрын
Учитель.
@kuntumeitan
@kuntumeitan Жыл бұрын
Прекрасный человек)
@interestinglydeliciouschin8592
@interestinglydeliciouschin8592 3 жыл бұрын
7:52, так нейросеть вас одурил просто и все, он прошуршал все ваши фотки из сети и сделал такие зубы+ улыбку.
@mombetnet8133
@mombetnet8133 3 жыл бұрын
Решение на открытие огня должен принимать человек . Пусть машина ищет отмечает сообщает пользователю, но стрелять без разрешения человека она не должна .очень сложно все это реализовать . Вдруг мышь проползет или птица ... А она откроет огонь переполошит всю охрану на объекте где она установлена . Да и взлом систем охраны никто не отменял. Человек пусть решает и потом сам договаривается со своей совестью за принятые решения .
@Nosferatu_rrr
@Nosferatu_rrr 3 жыл бұрын
Открывать огонь нейронной сети можно, если скорость приближения угрожаемого объекта больше, чем скорость принятия решения и нажатия на кнопку человеком.
@RobotN001
@RobotN001 3 жыл бұрын
0:20 нейросеть ли распознавала голос ? скорее там свёртка с последующим поиском по ближайшим популярным вопросам с помощью хешей.
@interestinglydeliciouschin8592
@interestinglydeliciouschin8592 3 жыл бұрын
хорошо ли будет довериться нейросети для стрельбы в людей? ответ на поверхности, смотря как обучили.
@interestinglydeliciouschin8592
@interestinglydeliciouschin8592 3 жыл бұрын
туда же и входит ответ можно ли это делать нейросети, позволительно ли это.
@avd5015
@avd5015 3 жыл бұрын
Соблазн огромен, правда. Здесь либо паритет в разработке и готовности внедрения подобных сетей, либо разработка средств, лишающих сети «органов чувств»
@Peace_upon_us2024
@Peace_upon_us2024 3 жыл бұрын
Спасибо!
@Александршвед-г3ъ
@Александршвед-г3ъ 3 жыл бұрын
я считаю что даже нужно. еще 1 технология которая будет сдерживать людей от соблазна развязать даже локальную войну.
@asryfc8883
@asryfc8883 3 жыл бұрын
Гуманно ли стрелять с помощью нейросети? Главным вопросом уже должно быть "как это пресечь", потому что это давно работает.
@АннаТамбовцева-ц4з
@АннаТамбовцева-ц4з 3 жыл бұрын
все так здорово Ура Други""
@sýntrofostoufóvou
@sýntrofostoufóvou 3 жыл бұрын
Почему видео доступно только по ссылке?
@letmethinkabout
@letmethinkabout 3 жыл бұрын
Исправили! Спасибо!
@Арина-б9и7з
@Арина-б9и7з 3 жыл бұрын
Надо поставить запрет для нейросети стрелять в людей
@Nosferatu_rrr
@Nosferatu_rrr 3 жыл бұрын
Кто запретит открывать огонь роботам, тот проиграет тому, кто себя не будет ограничивать. Если ты не можешь предотвратить безобразие, нужно его возглавить(с)
@RobotN001
@RobotN001 3 жыл бұрын
5:00 вообще-то есть ещё обучение без учителя (Unsupervised learning)
@nebulousGemini
@nebulousGemini 3 жыл бұрын
16:22 Time-of-flight все-таки
@ЕкатеринаСкоробогатая-ч5х
@ЕкатеринаСкоробогатая-ч5х 3 жыл бұрын
Очень интересное, познавательно-перспективное направление, продолжайте в том-же духе!
@RobotN001
@RobotN001 3 жыл бұрын
1:40 персептрон моделирует работу ... сказал нейрона или нейронов ? послышалось ед.число. А гугл создал в субтитрах более правильно ) во множественном числе ) на то, что было сказано в ед. числе говорят следующие предложения. тем не менее, персептрон это уже сеть!
@RobotN001
@RobotN001 3 жыл бұрын
11:40 вауэффекты это конечно хорошо для продвижения, но он же будет мешать научному методу из-за разных психологических особенностей человека и нейросети.
@ЕВА-в9я6е
@ЕВА-в9я6е 3 жыл бұрын
Скоро нейросети будут ненавидеть больше чем мигрантов)
@metas790
@metas790 3 жыл бұрын
Есть выход из ситуации если научить нейросеть использовать предупредительный выстрел или выстрел в оружие противника. а также возможно стрелять оружием не убивая обезвредить или усыпыть. В будушем же думаю основа войны составит Робот на Робота. и используя тепловизор они могут не быть гуманными к таким же роботам для их отличия и убийства. Раньше врагу можно было заглянуть в глаза. Сейчас же войны ведутся на расстоянии и те страны которые больше продвинутся в скорости и новизне технологий будут впереди всех.
@ЦапаризВа
@ЦапаризВа 3 жыл бұрын
Невозможно этого избежать, почему обладателей власти это должно сдерживать, если это дешевле и эффективнее, единственны путь не использования, это не создание ! Самое печальное, что правительство не побрезгует это использовать против граждан для сохранения власти.
@RobotN001
@RobotN001 3 жыл бұрын
2:22 вообще-то были и аналоговые вычислительные машины. акцентирование на цифре лишнее тут.
@slavaslava4821
@slavaslava4821 3 жыл бұрын
Мексика далеко-замените Ульяновских и Тольяттинских рабочих!
@RobotN001
@RobotN001 3 жыл бұрын
1:20 математический ? а если реализован на железе это уже не нейросеть ?
@TimLaizaR228
@TimLaizaR228 3 жыл бұрын
Ну да. Компьютерная нейросеть это чисто математическая модель, работающая исключительно на операции многократного перемножения матриц весов.
@RobotN001
@RobotN001 3 жыл бұрын
@@TimLaizaR228 именно веса умножаются ? или есть ещё сигналы и есть ещё сложения ? и есть ещё функции активации ?
@yurcchello
@yurcchello 3 жыл бұрын
6:06 до 175 млрд пар
@BobiBobObana
@BobiBobObana 3 жыл бұрын
Да элементарно. Если человек знает что это вражеская зона, то беспилотник должен стрелять во все что движется, и не важно есть у него сейчас оружие в руках или оно спрятано под курткой, или он вообще с зонтиком в руках ходит. Когда градами лупят по площади там тоже особо выборочно никто не смотрит. Поставить беспилотнику ограничение только по территории. Ставить ограничение на рост сложно, так как можно ходить на корточках накинув плащ, сделав из взрослого эдакого лилипута. А вообще надо заняться разработкой зонтиков от беспилотников, Передвигающиеся крыши. А рядом летающие дроны которые имитируют ложные цели. Вот же есть примеры kzbin.info/www/bejne/n6uUqGx7qq6te6s Только будут они имитировать движение войск.
@Admin_password_admin
@Admin_password_admin 3 жыл бұрын
Можно ли нейросеть обучить "гуманизму"?
@vy82_Nsk
@vy82_Nsk 3 жыл бұрын
Стрелять или не стрелять решает уже давно , к сожалению, не человек, а деньги.
@RobotN001
@RobotN001 3 жыл бұрын
и не деньги , а власть) а деньги можно и отнять )
@radome
@radome 3 жыл бұрын
отличный ролик - но что за вопрос? конечно, нужно обязательно дать нейросете возможность решения о самостоятельной ликвидации человека, и все проблемы этого мира исчезнут.
@101picofarad
@101picofarad 3 жыл бұрын
У американцев это право есть - проблем не убавилось. Даже наоборот - постоянно думаешь что твои соседи могут шмальнуть если не рассмотрят в сумерках...
@Russia54_
@Russia54_ 3 жыл бұрын
Нейросеть не должна принимать решения стрелять или не стрелять. Продвинутая нейросеть должна управлять государством, улучшать экономику, решать проблемы каждого человека на Земле. Тогда стрелять ни в кого не придётся.
@RobotN001
@RobotN001 3 жыл бұрын
6:55 увы, не всегда даже имитирует. есть проблема переобучения, когда нейросеть всё просто тупо зубрит без какого-либо понимания.
@TimLaizaR228
@TimLaizaR228 3 жыл бұрын
В этом случае добавляется регуляризация к функции активации, усложняется или облегчается модель - применяется cross-validation, когда грубо говоря выборка изначально разбивается на обучающую и тестовую.
@RobotN001
@RobotN001 3 жыл бұрын
@@TimLaizaR228 , cross-validation это валидация, а не обучение. Она уже не поможет когда переобучение уже свершилось. Или вы имели ввиду кросс-энтропию?
@TimLaizaR228
@TimLaizaR228 3 жыл бұрын
@@RobotN001 Я имею в виду то, что с помощью кросс валидации можно обнаружить факт переобучения, когда на обучающей выборке ошибка Cost Function вроде как маленькая, а на тестовой выборке неприлично большая. Это значит что скорее всего произошло переобучение, а значит следует добавить больше данных в выборку, добавить или поменять регуляризацию или подумать об адекватности самой модели 💁‍♂️ В общем это чисто оценочный инструмент
@koni_nik0
@koni_nik0 3 жыл бұрын
100к примерно столько нужно
@obpaTu_BHuMaHue
@obpaTu_BHuMaHue 3 жыл бұрын
Хм.. доверить машине стрелять в людей.. но а как она будет определять в кого стрелять? Датчик? Просто порой и дети с гранатометами бегают :) если только забрасывать в стан врага с задачей уничтожать все живое.. видел один мультик.. где танк с мозгами реагируя на страх атаковал.. ведь свой танк бояться не будут.. короче танк убил всех :) и чужих и своих.. вполне возможно могут быть полезны к узким диапазонам. Но автономия в наш век ненадежности запчастей.....
@user-Leonidovich
@user-Leonidovich 3 жыл бұрын
Я мультик не видел, но рассказ такой читал, автор Север Гансовский, "Полигон"
@koni_nik0
@koni_nik0 3 жыл бұрын
По моему очень недооценённый канал
@letmethinkabout
@letmethinkabout 3 жыл бұрын
Мы просто пока очень молодой канал ))
@iluhensun6884
@iluhensun6884 3 жыл бұрын
0:15 Какого хрена смотря в наушниках у меня включился гугол??!
@101picofarad
@101picofarad 3 жыл бұрын
нейросеть его включила - ты её обманул.
@RobotN001
@RobotN001 3 жыл бұрын
1:50 что в них происходит ? по предыдущему предложению вопрос должен был касаться нейронов человеческого мозга, а ответ пошёл на нейроны искусственные.
@TimLaizaR228
@TimLaizaR228 3 жыл бұрын
Компьютерная нейросеть не имеет ничего общего с нейронами мозга. Это всего лишь математическая модель, которая по своему образу может напоминать живые нейроны. Мужик все правильно сказал - там просто происходят многократные операции сложения и умножения, заданные определенным образом.
@RobotN001
@RobotN001 3 жыл бұрын
@@TimLaizaR228 "ничего общего" -- прям ничего? ну конечно-конечно. и мой вопрос был не в этом.
@sillysad3198
@sillysad3198 3 жыл бұрын
ok gugul -- dislike otpiska.
@ВадимЗиганшин-е7ь
@ВадимЗиганшин-е7ь Жыл бұрын
Рабы они и есть рабы.
REAL or FAKE? #beatbox #tiktok
01:03
BeatboxJCOP
Рет қаралды 18 МЛН
coco在求救? #小丑 #天使 #shorts
00:29
好人小丑
Рет қаралды 120 МЛН
How Strong Is Tape?
00:24
Stokes Twins
Рет қаралды 96 МЛН
Стыдные вопросы про Китай / вДудь
3:07:50
вДудь
Рет қаралды 4,6 МЛН
Мои искусственные хрусталики
16:53
GetAClass - Физика в опытах и экспериментах
Рет қаралды 83 М.
But what is a neural network? | Deep learning chapter 1
18:40
3Blue1Brown
Рет қаралды 18 МЛН
REAL or FAKE? #beatbox #tiktok
01:03
BeatboxJCOP
Рет қаралды 18 МЛН