Этот бро появился из ниоткуда, дропнул имбовые уроки для таких тапков как я, у которых от уравнений из одних букв в математике текут мозги, и исчез ещё на 3 года. Что за легенда.
@apristen2 жыл бұрын
у тебя лучшее понятное объяснение обратного распространения ошибки (как считать практически) какое только может быть!!! правда без подробного объяснения (теории) почему это так, ну там с дифференцированием сложной функции и т.д., но для новичков это даже к лучшему!
@antonsheva2569 Жыл бұрын
Получилось. Спасибо автору. Сетка (3+6+6+3 слоя) заработала, буду двигаться дальше. Самое доступное и понятное объяснение обратного распространения ошибки без всяких заумных формул; но все же считаю - необходимо немного углубиться в производные и вспомнить школьный курс алгебры, для дальнейшего изучения НС. Реализовал на С++ - пришлось набросать аналог numpy (использовал многострочные #define с параметрами - довольно удобно). Добавил сигмоид - работает более точно, но надо подбирать альфу и сам сигмоид, т.к. может просто выдавать белеберду. Так же, оказалось, что на входы не желательно давать 0: надо хотя бы 0.01; у меня четко работает -1 вместо нуля, но это связано с моим сигмоидом. Всем Удачи. Автору - респект.
@AniMAntZeZo Жыл бұрын
Видео огонь🔥🔥🔥 Только в цикле подсчёта Weight_1_2 for k in range(len(weight_1_2)): for j in range(len(weight_1_2)):
@PseudoDev Жыл бұрын
Хорошее уточнение, я глянул старый код, действительно, забыл дописать. Спасибо за хорошее замечание
@azimutjava Жыл бұрын
Это я удачно зашёл!
@tomtiurin23902 жыл бұрын
Спасибо за видео!
@teacher29.054 жыл бұрын
На выходе получается, как во втором столбике . Да?
@PseudoDev4 жыл бұрын
Правильно
@Тудисюди-э7з4 жыл бұрын
Для чего альфа коэфициент?
@PseudoDev4 жыл бұрын
Ответ на ваш вопрос есть в видео про "Градиентный спуск" (kzbin.info/www/bejne/e56Wga2Kjptsp7s)
@ockuepie4 жыл бұрын
Эх, надо будет тебе ещё шапку сделать
@PseudoDev4 жыл бұрын
Буду крайне благодарен)
@ushid_brand4 жыл бұрын
Нечего сказать, просто во👍
@PseudoDev4 жыл бұрын
Спасибо большое :3
@Тудисюди-э7з4 жыл бұрын
А если задонатим то вообще счасть тазик и маленькая тележка и трудолюбие +100500)
@apristen2 жыл бұрын
я правильно понял, что на практике np.dot(тут скаляр то есть число, тут 1D массив он же вектор) перемножает дельту следуюего слоя (скаляр) на вектор весов (массив) между текущим и следующим слоем - всё так просто прям?!