Хоть конечно и поздновато. Но на мой взгляд очень не хватает описание такой архитектуры как "Трансформер". Хотелось бы увидеть это в Вашем исполнение. Потому что у Вас получается рассказать языком без искажения смысла.
@Thecatvlog394 Жыл бұрын
Ты ещё живой🎉
@djfjdosnsdjfifjejs30512 жыл бұрын
Большое спасибо за труд. Очень помогает ваш канал в освоении python, нейронок и много другого.
@NaiNNNai4 күн бұрын
Просто сравните количество просмотров на первом и на последнем видео, тогда вы поймете, что большинство людей забрасывают изучение, считая, что все дастся им легко, а на деле этого не происходит
@nikolaydavidenko77832 жыл бұрын
Посмотрел весь плейлист, очень благодарен за все видео, супер полезно!
@sergeyworm1476 Жыл бұрын
Очень складное и структурированное изложение. Спасибо вам большое!
@firstelected82292 жыл бұрын
огромное спасибо за этот плейлист, вы лучший!
@speekflayder3 жыл бұрын
Огромное спасибо за профессиональную подачу!
@serghei.cupelschii6 ай бұрын
Автору огромное спасибо за труд
@onemasterlomaster18294 жыл бұрын
вот это круто и очень полезно, это лучшие видео по нейросетям!
@alexandervgr52993 жыл бұрын
Невероятно полезно! Спасибо Вам!
@md5alx3 жыл бұрын
Спасибо за Ваш труд!!!
@tsoer29764 жыл бұрын
Хочу сказать: Благодарю Вас, и даже подкинул бы доната!(такого еще не делал) Знания, которые Вы даете, имеют серьёзную силу. Лично для меня прояснило много моментов. Мне, помогло решил свою задачу. Даже иногда обидно, что не нашел раньше.... Пришлось перечитать несколько статей на иностранной литературе. Всегда считал знание=сила, а Вы так свободно ими делитесь. Очень благодарен. P.S. Правда такой открытый доступ плохо это или хорошо?
@selfedu_rus4 жыл бұрын
Спасибо! Рад, что представленная информация помогает вам и многим другим моим подписчикам. Ради этого все и делается! )
@YbisZX6 ай бұрын
@@selfedu_rus Вопрос. А нельзя было сделать здесь обучение проще? Обычным методом fit() по очереди обучать на каждом батче сборку генератор-дискриминатор (с разметкой 1), потом дискриминатор по смеси выхода генератора и картинкам (с разметкой 0/1 соответственно). Использовать при этом стандартную loss='binary_crossentropy'. И не надо было бы лезть в дебри с GradientTape и кастомными функциями потерь...
@FSoKra11 ай бұрын
ой хорошой плейлист, самое то для универа оказалось хотя описание работы сети хопфилда не хватает, хотя там совершенно ничего интересного, но все же пришлось искать отдельно
@kolyangod27152 жыл бұрын
Отличные видео и уроки! Не могли бы Вы рассмотреть создание нейросети, допустим, для распознавания заболеваний на снимках МСКТ или КТ?
@AcCeHu3aToP Жыл бұрын
У вас лучший обучающий материал по машинному обучению и нейросетям, нигде ничего подобного не встречал, даже в англоязычном сегменте. Будет ли продолжение по нейронкам (а то с только новых архитектур появилось)?
@selfedu_rus Жыл бұрын
Спасибо! Как руки дойдут ))
@MrKappasama9 ай бұрын
Спасибо за лекцию! А для ретуши и восстановления изображений это можно использовать? Например, есть картинка с текстом, текст нашли (например через OCR и удалили по маске). реально ли восстановить фон? Если нет, не могли бы Вы подсказать в какую реализацию копать?
@alexeysavostin4 жыл бұрын
Класс!
@user-en8ko2vd1k7 ай бұрын
Добрый день, сделайте, пожалуйста, обучающий видеоролик про физико-информированную нейронную сеть (PINN)
@ВишняковВиталий3 жыл бұрын
Спасибо большое за ваши видео, снимите пожалуйста видео про seq2seq и Machine Translation, очень интересная тема, про которую на русском нет хороших видео
@openglmanext979 Жыл бұрын
kzbin.info/www/bejne/mmmkYqGupL93es0 .Вариантов как всегда много,дергать субтитры,гнать через нейронки перевода,сейчас они и так прилично переводят.ну и самому по немногу осваивать англ.
@VenatoresnamIgnotis3 жыл бұрын
Почему при шаге 2,2 у нас увеличивается карта признаков? В видео по сверточным сетям вы говорили как раз наоборот, что в таком случае оно будет в два раза меньше. На рисунке у вас выделены каждые вторые квадраты, и вы сказали что при этом фильтр будет все равно проходить через каждый т.е. с шагом 1. А куда он будет переходить, если у нас нет квадрата на второй позиции?
@selfedu_rus3 жыл бұрын
Слой Conv2DTranspose увеличивает размер (это транспонированная, обратная свертка)
@neaafd27973 жыл бұрын
здраствуйте! я вот хотела начать писать свой дипломный проект) только вдохновляюсь Вашими уроками! не подскажете ли Вы какая нейронная сеть подходит больше к верификации личности по рукописному почерку? Буду очень благодарна!
@selfedu_rus3 жыл бұрын
Я думаю, лучше начать с рекуррентной сети на базе GRU. Если качество окажется не достаточно высоким, то попробовать или структуру сети поменять или блоки LSTM попробовать взять.
@neaafd27973 жыл бұрын
@@selfedu_rus хорошо, попробую сделать, огромное спасибо!
@ivanbezrukov36803 жыл бұрын
Здравствуйте! Подскажите пожалуйста, не планируете ли Вы сделать видео по повышению качества изображения? Если нет, может подскажете что изучить? Я в теории понимаю, что скорее всего на вход НС необходимо подавать изображение пониженного качества, а на выходе я сравниваю его с изображением исходного качества, таким образом обучая генератор. Но вот как реализовать это - не очень понимаю
@selfedu_rus3 жыл бұрын
Да, общая идея именно такая. Генератору дается изображение пониженного качества, он его доводит до более высокого и дискриминатор пытается его различить с натуральным полноразмерным изображением.
@kuand2 жыл бұрын
Здравствуйте! А не правильней было бы фиксировать генератор случайных чисел для генератора нормального распределения? Разьве это не будет более правильно с точки зрения генерации новых картинок?
@kukupwa47354 жыл бұрын
Добрый день, спасибо вам за настолько качественный контент!) А будут ли еще уроки по этой теме? Я думаю, что мы сможем даже донатиками скинуться ради такого контента)
@selfedu_rus4 жыл бұрын
Спасибо! А что именно предлагаете по этой теме?
@kukupwa47354 жыл бұрын
@@selfedu_rus Я думаю, что интересно, если бы вы рассказали как сделать или для своей игры, написанной на пайгеме. Что-то пощоде снимает CodeBullet (Возможно, я не правильно написал его имя)
@kukupwa47354 жыл бұрын
@@selfedu_rus Он делает ии и обучает его по типу награды(за правильную работу) и наказание за неправильную.
@selfedu_rus4 жыл бұрын
@@kukupwa4735 Обучение с подкреплением. Ясно, подумаю.
@kukupwa47354 жыл бұрын
@@selfedu_rus Будем ждать, спасибо за труды)
@tapuznikgg92443 жыл бұрын
Дорогой автро спасибо за курс, Вы бы не могли написать вашу электронную почту. Спасибо.
@selfedu_rus3 жыл бұрын
Спасибо! Она есть в описании канала, но сразу скажу, что я не даю частных уроков и не участвую в сторонних проектах.
@pboffic2 жыл бұрын
Можно урок про борьбу с несбалансированными классами когда мало данных для того или иного класса ?
@selfedu_rus2 жыл бұрын
Буду делать курс по машинному обучению, там это можно будет отметить.
@ВладимирПетров-з5н8в4 жыл бұрын
Спасибо Вам большое за ваши уроки! Можете ли Вы посоветовать литературу для дальнейшого обучения?
@selfedu_rus4 жыл бұрын
Спасибо. Литературу уже посоветовал в сообщении на вкладке "Сообщество" kzbin.info_rus/community
@ЛёшаШатурный4 жыл бұрын
@@selfedu_rus Здравствуйте! Спасибо за действительно качественные уроки! Хотелось бы больше практики по GAN, а именно: 1)Deep Fake 2)Enhanced Super Resolution GAN(ESRGAN)
@darkproject80683 жыл бұрын
Дед, спасибо тебе.
@animestation7225 Жыл бұрын
мне кажется или ты всегда улыбаешься? Голос так звучит
@romandeveloper77208 ай бұрын
тут я уже сломал мозг
@paranoia13612 жыл бұрын
Правильно ли что ошибка дискриминатора растет ? На первой эпохе она 0.9 и к 7-8 снижается до 0.1, но уже к 100 эпохи составляет 1.5... Разве она не должна колебаться в диапазоне 0.5? Если это не так, то через какое-то время он "запомнит" настоящие изображения то есть в реальных потерях станет ~0.1, а в не настоящих должно стать ~0.9 в сумме дать ~1.1. Однако все равно идти на снижение. Или я не правильно что-то понял, не могли бы вы мне объяснить и указать на мою ошибку?
@paranoia13612 жыл бұрын
И почему не сумма квадрата ошибок?
@ТумановАртём Жыл бұрын
ребята блин, а где обучение с подкреплением? :((((
@selfedu_rus Жыл бұрын
это отдельное научное направление )
@ТумановАртём Жыл бұрын
@@selfedu_rus , а есть серия видео по данному направлению ?