Нейронные Сети на Понятном Языке | Многослойные Нейросети | #5

  Рет қаралды 5,177

Псевдо Программист

Псевдо Программист

3 жыл бұрын

Сегодня будем разбирать тему - Многослойные нейросети.
В прошлых видео мы разбирали примеры с простейшими нейросетями. То есть, у нас был входной слой и выходной слой. Но как правило, в больших проектах используют - многослойные нейросети. В таких нейросетях, помимо входного и выходного слоя, может быть любое количество (так называемых) - скрытых слоёв. А что это такое, мы разберём в этом видео.
Привет! Меня зовут Игорь. На моём канале ты сможешь найти уроки по программированию нейросетей.
Моя цель - сделать программирование более доступным и понятным. Для просмотра моих видео вам не нужно высшее образование по Computer science. Все непонятные темы и термины я буду понятно объяснять и показывать на примерах.
В этом курсе мы разберёмся, что это за зверь такой - “нейронная сеть”. Мы изучим виды нейросетей, их особенности, методы обучения и применения. Писать код мы будем на языке программирования Python, так как этот язык чаще всего применяют для написания искусственных нейросетей.
Оставайся с нами, и чтобы не пропустить ни одного видео - подписывайся на канал и нажимай на колокольчик!
💲💲 Поддержать выход новых роликов и автора в том числе:
www.donationalerts.com/r/pseu...
Плейлист “Нейронные Сети на Понятном Языке” - • Нейронные Сети на Поня...
Плейлист "Изучение NumPy" -
• Изучение NumPy
Мои ссылки:
Группа VK - bit.ly/VK_PseudoDev
Код из видео на GitHub - bit.ly/GitHub_Study-Neural-Net...
#нейросеть #программирование #python

Пікірлер: 17
@apristen
@apristen Жыл бұрын
у тебя лучшее понятное объяснение обратного распространения ошибки (как считать практически) какое только может быть!!! правда без подробного объяснения (теории) почему это так, ну там с дифференцированием сложной функции и т.д., но для новичков это даже к лучшему!
@azimutjava
@azimutjava Жыл бұрын
Это я удачно зашёл!
@AniMAntZeZo
@AniMAntZeZo 8 ай бұрын
Видео огонь🔥🔥🔥 Только в цикле подсчёта Weight_1_2 for k in range(len(weight_1_2)): for j in range(len(weight_1_2)):
@PseudoDev
@PseudoDev 8 ай бұрын
Хорошее уточнение, я глянул старый код, действительно, забыл дописать. Спасибо за хорошее замечание
@antonsheva2569
@antonsheva2569 9 ай бұрын
Получилось. Спасибо автору. Сетка (3+6+6+3 слоя) заработала, буду двигаться дальше. Самое доступное и понятное объяснение обратного распространения ошибки без всяких заумных формул; но все же считаю - необходимо немного углубиться в производные и вспомнить школьный курс алгебры, для дальнейшего изучения НС. Реализовал на С++ - пришлось набросать аналог numpy (использовал многострочные #define с параметрами - довольно удобно). Добавил сигмоид - работает более точно, но надо подбирать альфу и сам сигмоид, т.к. может просто выдавать белеберду. Так же, оказалось, что на входы не желательно давать 0: надо хотя бы 0.01; у меня четко работает -1 вместо нуля, но это связано с моим сигмоидом. Всем Удачи. Автору - респект.
@tomtiurin2390
@tomtiurin2390 Жыл бұрын
Спасибо за видео!
@transgenderorist
@transgenderorist Жыл бұрын
Хочу написать общий алгоритм для нейросетей, проблема возникает при расчёте weight_delta, не могу уловить принцип расчета каждого элемента. В первом случае, мы умножаем катый элемент слоя, во втором случае уже житый. В общем случае очевидно потребуется задействовать оба индекса, но я как-то не улавливаю по какому принципу мы берем один индекс в одном случае, а другой индекс соответственно в следующем
@teacher29.05
@teacher29.05 3 жыл бұрын
На выходе получается, как во втором столбике . Да?
@PseudoDev
@PseudoDev 3 жыл бұрын
Правильно
@ushid_
@ushid_ 3 жыл бұрын
Нечего сказать, просто во👍
@PseudoDev
@PseudoDev 3 жыл бұрын
Спасибо большое :3
@ockuepie
@ockuepie 3 жыл бұрын
Эх, надо будет тебе ещё шапку сделать
@PseudoDev
@PseudoDev 3 жыл бұрын
Буду крайне благодарен)
@user-ei9yz6vm4t
@user-ei9yz6vm4t 3 жыл бұрын
А если задонатим то вообще счасть тазик и маленькая тележка и трудолюбие +100500)
@user-ei9yz6vm4t
@user-ei9yz6vm4t 3 жыл бұрын
Для чего альфа коэфициент?
@PseudoDev
@PseudoDev 3 жыл бұрын
Ответ на ваш вопрос есть в видео про "Градиентный спуск" (kzbin.info/www/bejne/e56Wga2Kjptsp7s)
@apristen
@apristen Жыл бұрын
я правильно понял, что на практике np.dot(тут скаляр то есть число, тут 1D массив он же вектор) перемножает дельту следуюего слоя (скаляр) на вектор весов (массив) между текущим и следующим слоем - всё так просто прям?!
Just try to use a cool gadget 😍
00:33
123 GO! SHORTS
Рет қаралды 20 МЛН
СНЕЖКИ ЛЕТОМ?? #shorts
00:30
Паша Осадчий
Рет қаралды 5 МЛН
Самое простое объяснение нейросети
16:30
Программный Кот
Рет қаралды 109 М.
Как стать Программистом 👨‍💻 | История моего пути
12:59
Псевдо Программист
Рет қаралды 6 М.
7  ПАРАДОКСОВ БЕСКОНЕЧНОСТИ
36:02
Mathin
Рет қаралды 328 М.
Свёрточные нейронные сети
14:02
Самостоятельная работа
Рет қаралды 7 М.
How To Learn Algorithms? Why? #codonaft
19:22
codonaft
Рет қаралды 560 М.
Just try to use a cool gadget 😍
00:33
123 GO! SHORTS
Рет қаралды 20 МЛН