Буду честен, я не ожидал, что второе видео выйдет в озвучке. Я думал, что автор канала забил. Поэтому, спасибо! Я искренне благодарен, надеюсь, что озвучки продолжат выходить. Очень интересно!
@Kenderosik Жыл бұрын
на крайней случай можно включать такие видео в яндекс браузере. там нейронка их хорошо переводит :D
@linuxoidovich10 ай бұрын
@@Kenderosikпроприетарщина
@Mrsashafr3 жыл бұрын
Шикарно, великолепно и доступно!
@linkernick53793 жыл бұрын
Молодцы, большое спасибо переводчикам.
@paveldukov3 жыл бұрын
Спасибо!🤝 Вы самая крутая команда в этом направлении.
@mtopsib3 жыл бұрын
Впервые понял суть обучения, спасибо
@user-xe9vr2km7b4 ай бұрын
Спасибо, просто великолепная подача материала!!
@molotkovm2 жыл бұрын
Это потрясающе! Большое спасибо за такое объяснение и отдельное спасибо за инфографику! Титанический труд
@SpanchBobSpannish Жыл бұрын
Это просто перевод, благодарности надо автору делать, а не переводчику
@darkfrei23 жыл бұрын
Это всегда интересно :)
@user-nr6go3ez3x9 ай бұрын
Просто супер! Спасибо)
@aidenstill71793 жыл бұрын
Отличный контент!
@MrDarkwolk3 жыл бұрын
офигеть какой крутой канал, автор ты крут=)
@paul.antares3 жыл бұрын
Ничего не понятно, но очень интересно. Зачем-то посмотрел оба видео)
@TDMLab3 жыл бұрын
Спасибо!)
@rubiks71963 жыл бұрын
Ура наконец-то перевод
@ARMALON872 жыл бұрын
Очень полезно для новичка, спасибо!
@user---------3 ай бұрын
Новичок относительно чего? Я например нихрена не понял....
@DataScienceGuy3 жыл бұрын
Лол, чисто случайно зашел проверить , а тут новое видео)
@maksum40623 жыл бұрын
Когда новое видео
@maksum40623 жыл бұрын
Джамбул на пути к Машинному обучение и нейронным сетим
@user-iz9sj1nn5q2 ай бұрын
1:57 алгоритм 2:38 MNIST Database 3:10 4:00 вычисление функции ошибки (математическим языком - добавить квадрат разности между каждым "плохим" значением) 4:56 функция ошибки 5:19 6:50 7:04 7:34 8:02 многомерный анализ 8:24 9:18 10:06 10:42 ! 11:27 11:45 вычисл. градиента функции двух переменных 12:10 12:28
@DarkFTP3 жыл бұрын
Спасибо!
@blacktechnology64963 жыл бұрын
Просто кайф!
@flmew81333 жыл бұрын
Спасибо 🥰
@muhammadumarsotvoldiev95553 жыл бұрын
Спасибо вам
@jefffox83013 жыл бұрын
Видимо это видео оценили только гики математики и программирования, жаль что таких не много, но я благодарю вас за проделанную работу, good luck ^ω^
@Staryi-Sceptik3 жыл бұрын
Разве производную не проходят в школе?
@user-be4od3wp7f Жыл бұрын
@@Staryi-Sceptik Ну производную да, но во первых мало кто сидит и пытается понять ее смысл, а во вторых тут это все сложнее. Ну и вот у меня практически все виды математики были на первых курсах и я все это понимал и делал, но т.к. это совсем никак не использовалось я все забыл спустя пару лет, это конечно восстанавливается быстрее, чем учится, но все таки, шо говорить о школе.
@d14400 Жыл бұрын
Для гиков это слишком тривиальное видео
@yessenzhol89896 ай бұрын
гики, объясните мне тупому пожалуйста. начиная с 4:00 поплыл: говоря математическим языком нужно добавить квадрат разницы между каждым плохим значением и его правильной величиной... что это такое? почему именно квадрат а не ^4 например, или не ^2/100
@user---------3 ай бұрын
@@yessenzhol8989я тоже ниxрена не понял
@ilgarjafarov54822 жыл бұрын
super. ocen kruto.
@KlimovArtem13 жыл бұрын
Вот это видео у него (изначального автора) получилось гораздо мощнее первого вводного!
@pencil_123 жыл бұрын
Как всегда топ
@naturetechno60013 жыл бұрын
Спасибо
@xev18822 жыл бұрын
бозе мой, где вы раньше были..
@andrewkruchini861411 ай бұрын
Спасибо за перевод. Только хочу отметить неточность на 18:58: все же "accuracy curve" и "кривая доли правильных ответов" - это совсем не одно и то же по смыслу. Первое про точность (меньше - лучше), второе про успешость (больше - лучше). Резануло несоответствие картинки и звукоряда, подписи на графике заставили лезть в оригинал.
@stanislavserov8622 Жыл бұрын
Я ничего не понял, но спасибо за полезное видео!
@user-qi9lk4tp6o3 жыл бұрын
Продолжай в том же духе! Я как раз пишу алгоритмы по нейросетям)
@user-vu9yd9fn8g3 жыл бұрын
Ну, как успехи?
@user-nn1ko1uq6k Жыл бұрын
ну а как всё таки успехи
@Anna_Porosenok Жыл бұрын
@@user-nn1ko1uq6k да нихера их нет потому что здесь херово обьясняют а даже больше путают.
@user-fh9df3oi6r7 ай бұрын
@@Anna_Porosenokа где хорошо объясняют?
@user-kb7sy3su8d Жыл бұрын
Я тупич, и то суть дошла, спасибо!
@maksum40623 жыл бұрын
Пока для меня это сложно. Но со временем я вернусь. ДС МЛ НС я иду за вами
@danihov3 жыл бұрын
Объясните, пожалуйста, момент с обучением на неправильных данных. Как сеть, которая обучалась на неправильных данных в итоге может показать такой же результат, как и та, что на верных. Ведь в первом случае для нейросети вилка всегда будет львом. Каким образом нейросеть может понять, что это не лев. Если никто ей не сообщает верных ответов. Видимо я понял неправильно. Буду благодарен, если кто объяснит ..
@duver29572 жыл бұрын
Могу путаться в терминах, но объясню как понял я. В первом случае они обучали сеть, выводя из нее данные в неструктурированном порядке. Например, в первой эпохе обучения они ввели в сеть картинку льва. Сеть выдала допустим вилку, но так как этот ответ не верен, мы корректируем ее работу функцией минимизации ошибки. Далее они изменили выходные данные, то есть изменили последний слой. Например на место, где результат был "вилка" она поставили "церковь". И далее начинается вторая эпоха обучения. Таким образом, сеть училась долго, но в итоге запомнила все объекты и стала выдавать нужный результат. А во втором случае они каждую эпоху не меняли последний слой, то есть появилась некая структура. И сеть обучалась гораздо быстрее.
@malk900g2 жыл бұрын
И все же машина зазубривает, как и мы :)
@emptyasdf Жыл бұрын
Нарисовано красиво, но в конечном итоге взять и применить отсюда что-то не представляется возможным. Просто концепт объяснили красочно.
@alexandermartin569411 ай бұрын
Это и есть смысл видео, объяснить принцып работы и математику нейросети, а не забивать в питон тупо функции из каких-то библиотек.
@finn60882 жыл бұрын
А зачем квадрат разности тр🤔 чтобы не было отрицательных значений?
@Azurelius3 жыл бұрын
Функция ошибки это функция потерь (loss function) ?
@kuntumeitan Жыл бұрын
Ничего не понял, но очень интересно
@constantinveltmann71963 жыл бұрын
А что если запустить сеть в обратную сторону? Допустим дать ей на нейрон отвечающий за 1 единицу, а на остальные нули. Пройти по обратному пути и построить изображение из входных нейронов, что она покажет? Идеальная единица с точки зрения нейросети
@1Hanch3 жыл бұрын
Там много разным методов есть как понять неросеть и этот тоже. Например можно посмотреть за что конкретный нейрон отвечает, для этого надо найти значение функцию выхода этого нейрона относительно изменяющихся входных значениях всей нейронной сети при не изменяющихся весах, и провести градиентный подъем, будет найден входной рисинок при котором максимально активируется нерон. Есть для сверточной сети визуализация тепловых карт активации класса, уверен для этой сети тоже подобное можно применить
@1Hanch3 жыл бұрын
тут регуляризацию можно понять и много другое playground.tensorflow.org/
@endlessvd Жыл бұрын
Она покажет лишь 2 рисунка, поскольку может быть лишь 2 входа, 0 и 1
@constantinveltmann7196 Жыл бұрын
@@endlessvd ничего, что там 10 выходных нейронов? то есть если инвертировать нейронку, будет так же 10 входных можно задать им строго единицу на один из этих нейронов, чтобы получить идельную цифру, а можно поиграться с десятичными значениями, чтобы получить 50/50 то ли 1 то ли два итд
@hottabych1374 ай бұрын
Что если... 🤣 Фарш в мясо нельзя обратно превратить
@iwouldliketoknowittoo70043 жыл бұрын
Більше перекладів!
@user-ju2fm9og4f3 жыл бұрын
Не очень понятно про обучение на неверно размеченных данных. Сеть ведь не сможет правильно классифицировать новые изображения не из обучающей выборки. Или я чего-то не понял. Что означает фраза "на обучающих данных удалось добиться той же точности, что и на правильных данных"?
@YY-zw2ec3 жыл бұрын
Наверное правильные = проверечные(valid data)
@kirillusenko3 жыл бұрын
В процессе обучения показываются картинки с правильным ответом и сеть учится
@Staryi-Sceptik3 жыл бұрын
Сеть просто запомнила новые названия для картинок. А не создала способ анализа изображения картинок
@Hengst.3 жыл бұрын
жаль, что версию для хлебушков не завезли)
@leonidvalentinovich52153 жыл бұрын
Это она и есть ) Те, кто в универе учился, а не сидел смотря лекции Стендфорда :-)
@rrraaa98542 жыл бұрын
Так что здесь мне кажется что программист учится таким образом составлять новые алгоритмы, то есть обучается))
@user---------3 ай бұрын
Я ничего не понял. То есть чтобы узнать значения потерь нужно разметить вручную (!!) сотни правильных примеров?
@andrewsed_uplisten20193 жыл бұрын
ничего не понял , но очень интересно
@vinsler3 жыл бұрын
Нужно добавить значение ошибки, это квадрат разности. А откуда сеть узнает, что именно на рисунке, чтобы определить куда пихнуть 0, а куда 1 ? Это уже не самообучающаяся сеть, а обучаемая, причем на каждую картинку, не сеть определяет правильность, а человек. А на 5 000 000 картинок, задавать правильность, на это уйдет очень много времени. И хорошо, если это уже всем известная система, а если она ноу-хау, и там не 5 млн картинок, а 100 триллионов?
@barkalov3 жыл бұрын
Есть "обучение с учителем", есть "обучение без учителя". Это разные подходы. Чтобы запилить подобную сеть "без учителя", нужно чтобы на входе и выходе сети было одно и тоже (768 пикселей-нейронов), а в середине сети, на скрытом слое - бутылочное горлышко из 10 нейронов. Тогда сеть будет вынуждена "пропихнуть" изображение каждой цифры через эти 10 нейронов, и восстановить/нарисовать цифру обратно на выходе. Для этого изображения цифр уже НЕ нужно предварительно размечать, сеть их классифицирует самостоятельно на том самом узком слое посередине. Функция ошибки в данном случае будет то, насколько выход сети похож на вход. Можно представить, что такая сеть пытается "заархивировать" изображение в 10 нейронах, а потом "разархивировать" обратно. Для этого она вынуждена будет их классифицировать. Самостоятельно. То есть, без учителя. Profit!
@Veyron1045 ай бұрын
6:12 допустим w в данном случае 2, "мы" спускаемся к 1, но это же не минимум? Минимум будет в -2. Как нам туда попасть, если придётся идти "вверх по горке" ??? 8:35 т.е. в этом случае, если бы минимум функции был не в (3;0), а в (0,5; -2) то пунктирная линия бы прошла "условно" почти "перпендикуляром к оси" от места поворота пунктирной линии?
@D0fka23 күн бұрын
1.В тот-то и дело, что попасть туда - никак. Либо выбирать случайные точки и в них смотреть градиент(точка от 13 тысяч переменных, представьте, как сложно будет найти глобальный минимум в 13000-мерном пространстве. 2. Нахождение минимума - это и есть нахождение этой линии, которая будет перпендикуляром.
@Veyron10422 күн бұрын
@@D0fka вот мне и непонятно каким образом это получается, грубо говоря это случайно получается. Если случайная точка взята с другой стороны "области" то получится что градиентом нас стянет в ближайшую "яму"?
@D0fka22 күн бұрын
@@Veyron104 ну да, минимум, на который мы попадем, случаен. Просто это нецелесообразно и почти невыполнимо, найти глобальный минимум от такой функции. Мы просто придем к любому локальному минимуму, но нас это устраивает
@datorikai9911 Жыл бұрын
Без музыки есть запись?
@user-fz5mh8nj1y Жыл бұрын
нифига не понял, но очень интересно
@igorshelby59503 жыл бұрын
Ответ на вопрос в конце видео заключается в использовании сверточного слоя нейронов?
@iliasmirnov29383 жыл бұрын
Хотелось бы больше переводов...
@Felix-og7pd Жыл бұрын
hidden layers - key
@YY-zw2ec3 жыл бұрын
Так если делать раз в год видео по нейронным сетям то мы их так и не выучим
@haykharutyun3708 Жыл бұрын
А как создать функцию ошибки? Как программа должна понять ошиблась она или нет?
@endlessvd Жыл бұрын
Sus
@KlimovArtem13 жыл бұрын
Почему в конце голос сменился?..
@hottabych1374 ай бұрын
Первый голос УСТАЛ
@maksymz66952 жыл бұрын
Я все еще не понял как узнать что полученный результат верный / не верный ? С чем и как сравнивать ?
@Anna_Porosenok Жыл бұрын
Заранее знать правильный ответ , напимер подаёшь рупоисную ужаную единицу и там её можешь распознать как единицу и сети говоришь что на выходе долна быть единица распознана и если приходит на выходе не еденица то программа сравнивает с твоим ответом уже заложенным, понимает что ошиблась и надо менять веса, изменяет веса и вновь пропускает рукописную туже единицу через себя и потом все по кругу пока чётко или при очень большем проценте не станем понимать что это единица , которую ты сам сказал что она должна там быть.
@hottabych1374 ай бұрын
@@Anna_Porosenok Если надо определить какого-то животного, насекомого, то нужно сделать 100500 выходов?
@Anna_Porosenok4 ай бұрын
@@hottabych137 ну так то да..., но сейчас алгоритны другие , скажем так , они делят на части , разбивают потом собирают , и обратно уже суженым фильтром распознвют и тогда уже точно выйдет что надо. Хочу скать что выдумывают разные алгоритмы все сложнее и сложнее , но зато они повышают круг распознования.
@hottabych1374 ай бұрын
@@Anna_Porosenok ага, понятно. Спасибо
@user---------3 ай бұрын
Я посмотрел наверное с пару десятков видео про Nl и прочитал несколько десятков статей, но я до сих пор ниxpeна на понял как это работает.... 😢 Я пока сделал только один вывод - дадасапиенсы либо банально не умеют объяснять предмет для широких масс, либо сами не до конца понимают. Увы.
@user---------2 ай бұрын
@@xxphall Логика в том, что если ты не умеешь объяснять (часто равно не знаешь предмет), то не нужно объяснять, ибо ты только запутываешь людей и тратишь их время. Сквозь тысячи видео/постов го*на очень сложно найти нормальные материалы. Теперь понятно?
@user-mu5cj4hv9lАй бұрын
Давно проходил этот плейлист, потом ещё 1, скоро буду курс изучать по нейронкам, после курса по машинному обучению, плейлисты, которые я смотрел не показывают всю работу нейронов детально, шаг за шагом, очень не хватает глубины понятия материала. Может нормально только в универах зарубежных будут объяснять, фиг знает
@alexandersapronov92818 ай бұрын
чёта я не понял с ходу, как вычисляется компоненты градиента ошибки для весов всех нейронов кроме выходного слоя видимо пойдё читать книгу Нильсена...
@oladushek1337 Жыл бұрын
4:05 к чему добавить?
@asanAzimkulov3 жыл бұрын
Синиормын
@LapshinLAB Жыл бұрын
784+1 нейрон = 785 на входе, один нейрон для смещения
@endlessvd Жыл бұрын
Sus нейрон 👀👀👀
@stepan-klyukin Жыл бұрын
хэллоу ворлд! в мире нейронных сетей
@Nemo-us6is2 жыл бұрын
Ну все скоро я создам свого джарвиса будет по круче алиси и сири)
@maksimsaikin3721 Жыл бұрын
Для 15-летнего - это взрыв мозга
@user-gp4xy2hf1o7 ай бұрын
людям младше все понятно
@user-qe8wj3qi3l Жыл бұрын
Почему алгоритм все упрямо называют нейросетью? Какое-то новомодное поветрий. Хотите создать нейронную сеть - поступайте как нейроны, а не как алгоритм. Этакий нейронный алгоритм. Но для этого придется на физическом уровне создать сеть нейронов, основная особенность этой сети - она обрабатывает информацию одновременно в большом поле нейронов. А когда обработка идет в звеньях последовательно - это просто разветвленный алгоритм.
@samedy00 Жыл бұрын
Ну так нейроны примерно так же работают. Сигналы передаются от уровня к уровню последовательно.
@rrraaa98542 жыл бұрын
Если изменить разрешение пикселей то сеть заново перестраивать?
@Anna_Porosenok Жыл бұрын
Да, верно, но можно написать алгорит м который рисунок сам будет или уменьшать или увеличивать разрешение до нужного для нейросети ,это не так сложно.
@user-gs1li9mb6s Жыл бұрын
@@Anna_Porosenok в любом случае, каждый последующий и, кажущийся самостоятельным и разумным, шаг сети - результат предшествующих этому шагу действий программиста (человека). ИИ на основе дискретной логики - миф) Весь фокус и вау-эффект от знакомства с ИИ зиждется на возможности железа считать с чудовищной (абстракция) скоростью. Ловкость рук - и никаких чудес.
@Anna_Porosenok Жыл бұрын
@@user-gs1li9mb6s это и так понятно, можно было об этом не писать.
@user-gs1li9mb6s Жыл бұрын
@@Anna_Porosenok судя по тому, что человечество упорно живет между черным и белым, не зная других оттенков, это понятно далеко не всем)
@Anna_Porosenok Жыл бұрын
@@user-gs1li9mb6s в следующий раз в переди поста как раз вот это и пиши, что бы яснее твоя мысль была.
@user-ns9pb8ml1m Жыл бұрын
17:46
@bald_agent_smith2 жыл бұрын
Весь мир это градиентный спуск, а ты в ней функция, которая ищет правду
@endlessvd Жыл бұрын
Прям как твоя мамка
@XeneZ_ Жыл бұрын
3:48 бедная нейросеть за что с ней так строго
@rrraaa98542 жыл бұрын
Вы зачем вводите термин как -Сеть обучается??? Если вы сами тут же говорите что закрепляете вначале алгоритм,потом настраиваете все точки пределов,(то есть формируете память,как это было раньше)а потом ваша якобы обучающаяся сеть просто -выбирает варианты Смотрю ваши материалы ,,,нихрена не поняла где нейронные сети обучаются,
@Anna_Porosenok Жыл бұрын
Да нигде , тупое видео херню несут сумбурную , там олени не поняли что такое нейронные сети и запилил видео , а ут ещё перевод.
@hottabych1374 ай бұрын
Мдаа... видео хоть и качественное, сделано грамотно, визуализация крутая, но... НИЧЕГО НЕ ПОНЯЛ, было просто интересно. 🤣
@barkalov3 жыл бұрын
Посткриптум, надиктованный женским голосом, переведен гораздо хуже основного материала. Ощущение, что диктор совершенно не понимает о чем говорит, и голос не вполне не синхронизирован с тем, что происходит на экране. Основная часть перевода сильно лучше.
@user-ny8dh8bu5v8 ай бұрын
вода
@Ciber-FanSistems3 жыл бұрын
нужно дописать!!! мало ходов !!! ПоЭтоу думает плохо!!!
@iamdan82033 жыл бұрын
Кто бы ни читал этот комментарий, знай, что *ГОСПОДЬ ИИСУС ХРИСТОС ЛЮБИТ ТЕБЯ!* Whoever reads this comment, know that *LORD JESUS CHRIST LOVES YOU!*
@timbond61767 ай бұрын
Что такое градиентный спуск мне объяснять не надо. Но боже ж ты мой - насколько запутанное и невнятное объяснение в этом ролике...Некоторые технические детали остаются вообще "за кадром".
@rrraaa98542 жыл бұрын
Боже мой...признаемся честно все эти обучения проходят в обусловленной системе,все жиждется на замкнутой платформе,о каком уме идёт речь???? О каких нейронах речь???о лампочках?где есть начальный код,то никаких обучения кроме как программиситов не может быть.