Нейронные Сети на Понятном Языке | Многослойные Нейросети | #5

  Рет қаралды 5,712

Псевдо Программист

Псевдо Программист

Күн бұрын

Пікірлер: 18
@MHPFan
@MHPFan Ай бұрын
Этот бро появился из ниоткуда, дропнул имбовые уроки для таких тапков как я, у которых от уравнений из одних букв в математике текут мозги, и исчез ещё на 3 года. Что за легенда.
@apristen
@apristen 2 жыл бұрын
у тебя лучшее понятное объяснение обратного распространения ошибки (как считать практически) какое только может быть!!! правда без подробного объяснения (теории) почему это так, ну там с дифференцированием сложной функции и т.д., но для новичков это даже к лучшему!
@antonsheva2569
@antonsheva2569 Жыл бұрын
Получилось. Спасибо автору. Сетка (3+6+6+3 слоя) заработала, буду двигаться дальше. Самое доступное и понятное объяснение обратного распространения ошибки без всяких заумных формул; но все же считаю - необходимо немного углубиться в производные и вспомнить школьный курс алгебры, для дальнейшего изучения НС. Реализовал на С++ - пришлось набросать аналог numpy (использовал многострочные #define с параметрами - довольно удобно). Добавил сигмоид - работает более точно, но надо подбирать альфу и сам сигмоид, т.к. может просто выдавать белеберду. Так же, оказалось, что на входы не желательно давать 0: надо хотя бы 0.01; у меня четко работает -1 вместо нуля, но это связано с моим сигмоидом. Всем Удачи. Автору - респект.
@AniMAntZeZo
@AniMAntZeZo Жыл бұрын
Видео огонь🔥🔥🔥 Только в цикле подсчёта Weight_1_2 for k in range(len(weight_1_2)): for j in range(len(weight_1_2)):
@PseudoDev
@PseudoDev Жыл бұрын
Хорошее уточнение, я глянул старый код, действительно, забыл дописать. Спасибо за хорошее замечание
@azimutjava
@azimutjava Жыл бұрын
Это я удачно зашёл!
@tomtiurin2390
@tomtiurin2390 2 жыл бұрын
Спасибо за видео!
@teacher29.05
@teacher29.05 4 жыл бұрын
На выходе получается, как во втором столбике . Да?
@PseudoDev
@PseudoDev 4 жыл бұрын
Правильно
@Тудисюди-э7з
@Тудисюди-э7з 4 жыл бұрын
Для чего альфа коэфициент?
@PseudoDev
@PseudoDev 4 жыл бұрын
Ответ на ваш вопрос есть в видео про "Градиентный спуск" (kzbin.info/www/bejne/e56Wga2Kjptsp7s)
@ockuepie
@ockuepie 4 жыл бұрын
Эх, надо будет тебе ещё шапку сделать
@PseudoDev
@PseudoDev 4 жыл бұрын
Буду крайне благодарен)
@ushid_brand
@ushid_brand 4 жыл бұрын
Нечего сказать, просто во👍
@PseudoDev
@PseudoDev 4 жыл бұрын
Спасибо большое :3
@Тудисюди-э7з
@Тудисюди-э7з 4 жыл бұрын
А если задонатим то вообще счасть тазик и маленькая тележка и трудолюбие +100500)
@apristen
@apristen 2 жыл бұрын
я правильно понял, что на практике np.dot(тут скаляр то есть число, тут 1D массив он же вектор) перемножает дельту следуюего слоя (скаляр) на вектор весов (массив) между текущим и следующим слоем - всё так просто прям?!
[DeepLearning | видео 1] Что же такое нейронная сеть?
19:00
3Blue1Brown translated by Sciberia
Рет қаралды 815 М.
Гениальное изобретение из обычного стаканчика!
00:31
Лютая физика | Олимпиадная физика
Рет қаралды 4,8 МЛН
Предел развития НЕЙРОСЕТЕЙ
18:53
Onigiri
Рет қаралды 170 М.
Твоя ПЕРВАЯ НЕЙРОСЕТЬ на Python с нуля! | За 10 минут :3
18:31
Хауди Хо™ - Просто о мире IT!
Рет қаралды 290 М.
Делаю нейросеть с нуля
17:17
Onigiri
Рет қаралды 1,5 МЛН
КАК УСТРОЕН TCP/IP?
31:32
Alek OS
Рет қаралды 258 М.
But what is a neural network? | Deep learning chapter 1
18:40
3Blue1Brown
Рет қаралды 18 МЛН
Нейронные Сети на Понятном Языке | Введение в курс | #0
5:15
Гениальное изобретение из обычного стаканчика!
00:31
Лютая физика | Олимпиадная физика
Рет қаралды 4,8 МЛН