Нейронная сеть. Пытаюсь познакомиться. Часть 1.

  Рет қаралды 250,747

foo52ru ТехноШаман

foo52ru ТехноШаман

Күн бұрын

Пікірлер: 581
@sonicvv
@sonicvv 6 жыл бұрын
Показал это видео своей нейронной сети, говорит надо лайк поставить...
@thzeroucken
@thzeroucken 5 жыл бұрын
Нажми класс если тебя держит умный дом
@FUNKAFANTAS1
@FUNKAFANTAS1 5 жыл бұрын
@@thzeroucken "Нажми класс" как это убого звучит
@mf.8985
@mf.8985 5 жыл бұрын
@@FUNKAFANTAS1 Нищебродский
@imch-familiya
@imch-familiya 4 жыл бұрын
@@thzeroucken а ты точно сможешь помочь, черт он идет
@mem3525
@mem3525 4 жыл бұрын
гыгыгыгыгыгыгыгы
@Tr00pikan00
@Tr00pikan00 6 жыл бұрын
То что система проявила хитрожопость- убила XD Класс мне понравилось!!!
@zerg100500
@zerg100500 5 жыл бұрын
Услышал и заплакал. Ааааа!!! Сеть проявила хитрожопость:))) ааааа
@retret4538
@retret4538 6 жыл бұрын
(Сейчас я уже знаю про нейросети) Вот честно, ты этот материал намного лучше рассказал. У тебя нет сплошного текста с непонятными формулами через переменные в три и более индексов, ты всё рассказал пошагово без стояния на одном моменте по несколько минут + сразу показал применение и очень простую реализацию, не используя сторонних библиотек, на простом коде pixilang'а. Делай дальше!
@506
@506 6 жыл бұрын
Афигенный у тебя контент. Желаю дальше развиваться и выкладывать свои успехи на ютуб. У тебя стабильно раз в месяц видео выходит. Круто, что упор на качество, а не на количество. Я уже привык - сначала ставлю лайк, потом смотрю видео.
@ATtiny13a-PU
@ATtiny13a-PU 6 жыл бұрын
тоже лайк сразу поставил, мне очень зашло
@ДжигурдаДжигуртаниан
@ДжигурдаДжигуртаниан 6 жыл бұрын
Как говорится "Ничего не понял, но очень интересно"
@user-xtkjdtr16
@user-xtkjdtr16 6 жыл бұрын
Ну там ни "нечего", там другое слово)))
@JosephStalin6730
@JosephStalin6730 5 жыл бұрын
@@user-xtkjdtr16 Ну да, там написано "ничего".)
@ATtiny13a-PU
@ATtiny13a-PU 5 жыл бұрын
@@JosephStalin6730 , цензура
@ancubic1549
@ancubic1549 5 жыл бұрын
Так уходи отсюда
@himsmit2901
@himsmit2901 5 жыл бұрын
НИЧЕГО ИНТЕРЕСНОГО В НЕПОНЯТНОМ... ЧАСТОТНОМ ХАРАКТЕРЕ УСИЛЕННОГО СИГНАЛА НЕЙРОАКСОНОДЕНДРИТНОГО ХАРАКТЕРА,С ХАРАКТЕРИСТИКОЙ ОТКРЫТОГО КЛЮЧА...ТАК И ТЯНЕТСЯ НЕРВНЫЙ ИМПУЛЬС К МЫШЦЕ РУКЕ ЛАЙК ПОСТАВИТЬ...НО НЕНАШЛОСЬ АРГУМЕНТОВ.
@SergejKolmogorov
@SergejKolmogorov 6 жыл бұрын
Когда-то в универе поверхностно начинал разбираться с искуственным интелектом но прекратил. Случайно открыл твой ролик и как-то чувствую, что ты меня смотивировал снова попробовать в это погрузиться. Спасибо!
@СергейЛиньков-э2с
@СергейЛиньков-э2с 6 жыл бұрын
Автор, где ты был когда я учился. Плакать хочется. Впервые я хоть что-то понял про нейросети. С благодарностью и уважением отношусь к тебе. Искренне желаю творческих успехов и всех благ. Чести и удачи! ;)
@DmitriyMX
@DmitriyMX 6 жыл бұрын
тем не менее, по вашему ролику мне стало намного понятнее строение и реализация нейронных сетей. Благодарю за помощь в "первой ступеньке" к пониманию темы.
@MihailOnuchin
@MihailOnuchin 6 жыл бұрын
Как тречок Кровостока слушать...)))))
@andy0x58
@andy0x58 5 жыл бұрын
После твоего коммента я не смог дальше слушать автора)))
@lit1041
@lit1041 5 жыл бұрын
Эта музыка у меня в голове заела, на столько всё плохо))
@artyzn
@artyzn 5 жыл бұрын
Коллаб НТР и Кровостока
@ИванСелянкин-д3т
@ИванСелянкин-д3т 5 жыл бұрын
смотрю на скорости 1.25
@fredfredburger2454
@fredfredburger2454 5 жыл бұрын
Хочешь станцуй грязные танцы. Хочешь считай редкие шансы. Умножай всё в уме. Дели на бумажке - А я тут затру, про смерть Чебурашки...)
@Darthkodius
@Darthkodius 6 жыл бұрын
Годно. В което веке доходчиво про нейросети.
@dmitryzhuk220
@dmitryzhuk220 6 жыл бұрын
Вот +++++++++++, а то напишут где в иной раз: "Вам наверняка не понятно как происходит A+B (я утрирую), ну а из этого нейронку построить - очевидный шаг. Всем спасибо до свидания" и ничего не понятно - а тут классно, всё понятно)
@denispashnev912
@denispashnev912 6 жыл бұрын
Разве сложно перемножать матрицы и оптимизировать веса градиентным спуском?? Это всего лишь аппроксимация функции
@dmitryzhuk220
@dmitryzhuk220 6 жыл бұрын
@@denispashnev912 вот-вот, а у него всё понятно)
@prepodsinmysharagawerystup7357
@prepodsinmysharagawerystup7357 6 жыл бұрын
Слава математике!
@LiquidPotroh
@LiquidPotroh 6 жыл бұрын
Математикам слава!
@funtorm
@funtorm 5 жыл бұрын
@@ВикторБухаров-ф3ь алгебра изи предмет
@alotino
@alotino 5 жыл бұрын
Слава богу
@diam0nd211
@diam0nd211 5 жыл бұрын
Мотемотечке*
@DanielLenskiy
@DanielLenskiy 5 жыл бұрын
Матану слава!
@rgbbarhat7988
@rgbbarhat7988 6 жыл бұрын
ооочень кайфанул! Спасибо огромное. Подписка! Давно не хватало такого канала мне. Сочетание твоего голоса и интонаций с темой и музыкой неожиданно хорошо заходит.
@overcreated
@overcreated 5 жыл бұрын
Это самое лучшее объяснение работы НС, что я видел!
@nilsharafutdinov3679
@nilsharafutdinov3679 2 жыл бұрын
"сеть проявила хитрожопость..." Поржал, стоит посмотреть хотя бы ради того чтобы понять эту фразу. Лайк.
@taxiart8363
@taxiart8363 6 жыл бұрын
Идея для экспериментов: 1 сделать песочницу типа змейки только с более сложным миром и стравить разных змеек между собой, чтобы посмотреть какая конфигурация нейронной сети жизнеспособнее. 2 в той же песочнице сделать так чтобы конфигурация нейронной сети генерировалась случайно, а в процессе появлялись новые случайные блоки и дообучались. А победители могли перемешивать конфигурации своих сетей с разной степенью. Цель посмотреть сможет ли комп сгенерировать лучший вариант сети под задачу. 3 ко 2 варианту прирастание новых сенсоров. 4 змейки с разными маленькими сетями соединить в коллективный разум, мегасеть одного вида будет сражаться с мегасетью другого вида.
@taxiart8363
@taxiart8363 6 жыл бұрын
kzbin.info/www/bejne/gXSlkJiPoN2eb5o тут нейронная сеть на биологических параметрах
@nikpolyware7251
@nikpolyware7251 5 жыл бұрын
Хорошая задумка, но уже становится ясно что обученная нейросеть (сети) будут применимы только э к этой песочнице, к этому типу задач. Вот состряпать нейросеть которая обучена побирать необходимые параметры для предоставленной модели с дальнейшей целью контроля обучения нейросети более низкого уровня для работы с предоставленной моделью. (модель обучения с учителем, где учителем будет нейросеть :) ). Если очень закручено написал, могу переписать по проще. Сам использую brainJS, постепенно подбираюсь к convnetjs и tensorflow
@noitaukkokronk
@noitaukkokronk 2 жыл бұрын
Михаил, как ни странно, после просмотра множества роликов про нейросети, этот оказался наиболее простым и понятным для понимания.
@Василий-с5е6ж
@Василий-с5е6ж 5 жыл бұрын
Я месяц искал и тестил формулы для нейронных сетей чтоб правильно обучать и всегда напарывался на сети с ошибочными формулами. Нарвался на это видео и решил глянуть. Автор без воды и по существу рассказал как и что работает. Лучше инструкции и представить не могу. ПС: У меня сеть сошлась по этим формулам, спасибо)
@evgenn787
@evgenn787 6 жыл бұрын
Чувак, я нифига не понял что ты сказал, но ты заговорил ...... и достучался до сердца !!! =)))
@meanderIse
@meanderIse 5 жыл бұрын
Просто, доступно, и по сути. Это видео меня реально заразило! Теперь думаю где можно применить нейронные сети в своих (в т.ч. будущих) проектах : )
@legostroitel9429
@legostroitel9429 4 жыл бұрын
Большое спасибо! Видео и правда полезное! Главное (что другие не снимают) что код понятен для чтения его не много и зависит от темы, т.е. разказ код расказ код расказ код! Этото очень удобно и ориентироваться не сложно! Я переписал всё на другой язык и на удивление всё заработало!!!
@КириллСоколов-ш7к
@КириллСоколов-ш7к 6 жыл бұрын
Жду вторую часть.
@cheburek5116
@cheburek5116 6 жыл бұрын
я очень жду
@aladinmovies
@aladinmovies 6 жыл бұрын
Классное понятное видео по контенту! В коем то веке что то практично встретил! Жду продолжения по этой теме.
@vladislavunderoak4323
@vladislavunderoak4323 6 жыл бұрын
Слава Науке! Математикам Слава! Кто не дифференцирует, тот Паскаль!
@gigigaga5469
@gigigaga5469 6 жыл бұрын
Слава Україні
@Orakcool
@Orakcool 6 жыл бұрын
+Vitalii Savchuk, зачем?
@АлексМ-м7ф
@АлексМ-м7ф 5 жыл бұрын
@@gigigaga5469 хероям в срало
@fredfredburger2454
@fredfredburger2454 5 жыл бұрын
@@gigigaga5469 тупа рашня ніколи не скаже "Слава " своєму смітнику,зате буде обсиратися коли хтось скаже "Слава Україні". хворі люди...
@ex-format
@ex-format 4 жыл бұрын
Ребята, давайте жить дружно
@РоманДьяков-х8е
@РоманДьяков-х8е 5 жыл бұрын
спасибо, ты очень мне помог, долго не мог понять как оно работает, а в интернете подробной информации так и не нашёл, но после просмотра твоего ролика получилось написать многослойный персептрон
@Andrewkrivoshein
@Andrewkrivoshein 5 жыл бұрын
Огромное спасибо Вам за видеоуроки, у Вас замечательное чувство юмора при этом. Здорово!
@FoxSlyme
@FoxSlyme 5 жыл бұрын
Спасибо огромное! До этого видел много материала про нейросети из других источников, но здесь для меня наиболее понятно и доходчиво! Теперь я понимаю их не только снаружи, но и внутри ;)
@maksimka8993
@maksimka8993 5 жыл бұрын
Самое лучшее видео по нейронным сетям что я видел!
@cantwaitforit
@cantwaitforit 4 жыл бұрын
Если быть серьезным, то видео - действительно классное. Видно, что старался. Очень понятно и доходчиво обьясняешь. А если не быть : АААААААААААА СПАСИБО, НАКОНЕЦ Я ЧТО-ТО ПОНЯЛ В ИИ!!!
@meanderIse
@meanderIse 5 жыл бұрын
По поводу Вашей ошибки - не ошибается только тот кто ничего не делает. Отличный ролик! Подписался )
@Trogls
@Trogls 6 жыл бұрын
Спасибо Вам за такие хорошие видео. Ждём продолжения.
@ВладиславА-н7й
@ВладиславА-н7й 5 жыл бұрын
Автор, огромный "респект и уважуха"! Сам пытаюсь разобраться с темой нейронных сетей, сижу с карандашом и бумагой, пытаюсь повторить путь Автора. Есть вопрос, на 6:39 идет корректировка весов связи и вычисляется производная df(e)/de. Я считаю, что запись df(e)/de не корректна. По правилам математики df(e)/de - это будет какая-то функция от переменной e: f'(e), именно функция, не число! Но здесь же вы оперируете абсолютными величинами ( числами). Я считаю более корректная запись должна выглядеть следующим образом: вычисляем производную функции активации в точке x=e: df(x)/dx | x=e. Вот теперь мы получаем число, которое участвует в вычислениях. В общем случае, для произвольной функции активации, при корректировке весов надо использовать наклон функции активации в точке e - в общем-то геометрический смысл первой производной))) А в целом все очень доступно и понятно! Спасибо за видео!
@АлександрРуденко-п5к
@АлександрРуденко-п5к 2 ай бұрын
Ничего страшного, что вы пропустили момент со средней квадратичной ошибкой, зато теперь благодаря вашему видео я понял смысл среднеквадратичной ошибки.
@AlexLink-rb5by
@AlexLink-rb5by 5 жыл бұрын
Спасибо за подробное разжовывание, похожих роликов не встречал...
@staf5496
@staf5496 6 жыл бұрын
Почему дневник автора гораздо полезнее и понятнее руководств, инструкций и книг? 😆 Автора прошу больше рассказывать про нейросети. 👍
@250-p6i
@250-p6i 6 жыл бұрын
Потому, что Ваш уровень знаний ближе к автору видео, а не автору книг.
@xControl277
@xControl277 Жыл бұрын
Спасибо за ролик. Уже 4 года пытаюсь подобраться к нейронкам. Книги с питоном не сильно помогают, только отупляют, слишком много скрытой математики. На последнем подходе сконцентрировался на задаче написания простейшего персептрона. Понимая, что понадобятся очень эффективные вычисления постепенно подбираюсь к вычислительной математике, x86 ассемблеру, языку Си и операционной системе UNIX. Вы мне открыли глаза, я почему-то был уверен, что функция активации стоит на последнем выходном слое нейросети, а сейчас осознал насколько ошибался. И кстати в Вашем примере функция активации называется сигмоида, а не логистическая. Для большего изучения терминологии советую: Саймон Хайкин. "Нейронные сети. Полный курс."
@Информатика-м6х
@Информатика-м6х 4 жыл бұрын
Спасибо, очень простое и доступное объяснение без спама!
@Butcer
@Butcer 6 жыл бұрын
Чувак, мне нравится твоё занятие нейросетями! Пожалуйста не бросай это дело, осень жду продолжения
@alexey_pryadko
@alexey_pryadko 5 жыл бұрын
Бро, большое тебе спасибо! Лазил по другим сайтам.... Лазил, и ничего так и не понял... Уже решил забросить... Но! Тут натыкаюсь на твой ролик, смотрю и думаю, как этот человек всё понятно объясняет! И подумал я, за хорошее объяснение ставлю лайк! Спасибо за понятно изложенную информацию!
@ВасилийС-м1ю
@ВасилийС-м1ю 5 жыл бұрын
Спасибо за канал. я как раз ночью думал для себя что то подобное организовать.
@81n90
@81n90 6 жыл бұрын
Подписка, однозначно! Очень нравится изложение, спокойный конкретный голос, кто-то скажет - монотонный - но это не так. Очень доходчиво для тех кто только знакомится с нейронками - мне бы этот видос лет пять назад посмотреть ) По теме - хотел бы увидеть вашу работу с рекуррентными и сверточными сетями, в таком же понятнтом виде с примерами и деталями.
@dev_via_fun
@dev_via_fun 4 жыл бұрын
Автор! Никто так хорошо не обучает этому как ты... Ты просто топ!!!
@nikitapetrenko6757
@nikitapetrenko6757 6 жыл бұрын
ТОП контент на канале! Побольше бы такого, тем более в русскоязычном сегменте! Залпом посмотрел почти все. Надеюсь увидеть что-нибудь об обучении с подкреплением. Благо тема хорошо подходит для игр типа змейки, но к сожалению достаточно мало годной информации по ней. Да и сама тема гораздо более сложна для понимания. Но с таким серьёзным подходом я думаю можно разобраться.
@andreysilver5496
@andreysilver5496 6 жыл бұрын
Как же хорошо вы все разложили. Спасибо.
@PrOxDES
@PrOxDES 6 жыл бұрын
В предвкушении второй части подписался. С Новым Годом!
@gfm9973
@gfm9973 6 жыл бұрын
Просмотрел видео и нашел ошибку в своей нейронке, спасибо! Жду продолжения, может в очередной раз найду ошибки и пробелы знаний у себя.
@igorekv
@igorekv 5 жыл бұрын
Ютубчик подкинул твой видосик про змейки, заинтересовался этой темой, твои видео лучшие =) Спасибо.
@survivorspace896
@survivorspace896 4 жыл бұрын
Круто! В остальных ролика тонны воды, зубодробительных формул, и крайне много ущербной терминологии, причем ролики обучающие, у тебя же, все доступно и детально описано, спасибо!
@romanmanechkin9735
@romanmanechkin9735 6 жыл бұрын
Отличное видео ! Очень буду ждать следующее видео !
@ЯрославФедотов-ь7я
@ЯрославФедотов-ь7я 6 жыл бұрын
Спасибо за видосы. Очень годно. С нетерпением жду следующего.
@marchpr-n7165
@marchpr-n7165 4 жыл бұрын
Чувак, ты только не обижайся) У тебя не самый приятный голос для диктора, НО я смотрю твои видео и не могу оторваться. И от начала до самого конца ролика не замечаю этого. Классный контент и подача материала! P.S. не вздумай что-либо менять в формате вещания (ни в лучшую , ни в худшую сторону) - это твоя фишка.
@Holme4
@Holme4 11 ай бұрын
12:50 - Сделал по образцу, немного не сходились показатели в видео, пришлось читать дополнительную информацию. У меня график ошибок другой, напоминает биения (из радио), то-есть, ошибка на графике убывает и возрастает, с каждым поколением уменьшается только пик. Предположительно, это из-за отрицательных значений связей нейронов, которые были изначально, брал в диапазоне от -1,0 до 1,0. считал ошибку по формуле Е = (А1 х А1) + ( Б1 х Б1), где А1 и Б1 - ошибки выходных нейронов. Из наблюдений: - второй вариант библиотеки в корне оказался не рабочим, с ним нейросеть не обучается, запускал обучение множество раз с разными коэффициентами обучения. Исход тот же, обучения нет. - первый вариант нейросеть начинает проявлять "разум" еще на стадии обучения примерно за 150 поколений, с коэффициентом 0,5 , при этом после обучения выходные данные становятся близки к единице или нулю (примерно 0,9864 и 0,0245). Так же, алгоритм можно упростить путем усложнения кода, если использовать нейроны как класс содержащий 2 переменные, значение и ошибку, а так же, список нейронов предыдущего слоя, с которыми связывается. Тогда значения можно сосчитать методом рекурсии. Список нейронов тоже класс, содержит нейрон с которым связывается и коэффициент связи. Ошибку считать в таком случае становиться сложнее, т.к. связи работают в обратном порядке, однако, если в нейрон добавить список ошибок то при распространении ошибки, можно получить список значений ошибок, а после их сложить методом рекурсии. - если расширить количество выходных нейронов, скажем до 36, а на входе оставить 9. то при должных примерах можно обучить нейросеть "увеличивать" изображение в 2 раза без потери качества.
@darkfateinc7333
@darkfateinc7333 5 жыл бұрын
Очень крутой и полезный контент. Спасибо за труды!
@ВалентинаСахарова-ь3б
@ВалентинаСахарова-ь3б 5 жыл бұрын
агонь! а по какому принципу было выбрано количество нейронов в двух скрытых слоях в задаче про вертикальные и горизонтальные линии?
@garrimorg3720
@garrimorg3720 6 жыл бұрын
Интереснейший канал! Ждем мир ботов на основе конкурирующих нейронных сетей! Рекомендую: Ян Гудфеллоу - глубокое обучение
@stepansidorov8734
@stepansidorov8734 5 жыл бұрын
Класс, хоть это и твой дневник мне стало очень многое понятно. Спасибо!
@gatos-su
@gatos-su 6 жыл бұрын
Автор, ты капитальный молодец :)
@zajalojalo
@zajalojalo 6 жыл бұрын
Появляйся в моих рекомендациях как можно чаще!
@ИгорьЧернышев-и4ч
@ИгорьЧернышев-и4ч 5 жыл бұрын
Я себя таким идиотом чувствую, жалко не занимался программированием, автор, большое тебе уважение за твою крапотливость и упорство, так держать!!!!!!
@krenciak
@krenciak 3 жыл бұрын
Спасибо, классное объяснение! Смотрел это видео ещё в конце 2019, но комментарий написал только сейчас.
@denisdd5885
@denisdd5885 4 жыл бұрын
Спасибо тебе добрый человек.Только просмотрев твое видео,понял свою ошибку.
@tistaliv1491
@tistaliv1491 6 жыл бұрын
Спасибо, я смог сделать нейронную сеть на c++, которая различает цифры с точностью 98%. Жду продолжения))
@YaShoom
@YaShoom 6 жыл бұрын
+TiStaliv а сама цифры писать умеет? Автор вон не обучал рисовать, а она рисует.
@ВладиславЧе7
@ВладиславЧе7 3 жыл бұрын
интересно, занимаюсь такой же задачей в рамках курсовой. Не очень получается, если честно
@VictorGubin
@VictorGubin 6 жыл бұрын
Пробовали распаралеливать/передавать вычисление на GPU через через OpenCL ?
@White_Drake
@White_Drake 6 жыл бұрын
Жду змейку на основе нейросети)
@igorgrischenko6518
@igorgrischenko6518 6 жыл бұрын
Жду нейросеть на основе змейки
@ГригорийСолдатенко-п5ы
@ГригорийСолдатенко-п5ы 6 жыл бұрын
Змейка станет предком скайнета - через 1000000 итераций !
@cheburek5116
@cheburek5116 6 жыл бұрын
лол
@viRUSS666999
@viRUSS666999 6 жыл бұрын
ага, хочешь чтоб было как в матрице?!?!?!
@n1cerecordstv46
@n1cerecordstv46 6 жыл бұрын
Интересная работа! Респект автору!
@UCanDo
@UCanDo 5 жыл бұрын
Спасибо за очень интересное видео!!! Подскажите, а что за музыка у вас используется?
@foo52ru
@foo52ru 5 жыл бұрын
я сам пишу музыку для роликов
@UCanDo
@UCanDo 5 жыл бұрын
@@foo52ru КРУТО!!! Я подписан на ваш канал и с удовольствием просматриваю ваши видео. Я радиолюбитель, "ардуинщик" :)) именно любитель, по образованию не имею ничего общего с техникой или программированием. Но ваши видео очень интересны и полезны, так как помогают в понимании определенных алгоритмов. Возможно, когда-то и я дойду до создания своей нейронной сети на микроконтроллерах :)) Желаю успехов вам!
@catzz2790
@catzz2790 5 жыл бұрын
@@foo52ru 💪💪
@les12001
@les12001 5 жыл бұрын
@@UCanDo я тоже смотрю ваш канал! Очень круто что есть такие люди которые всем этим занимаются и помогают в понимании просессов)
@ПРИКОЛЫ-т6б
@ПРИКОЛЫ-т6б 6 жыл бұрын
Спасибо. Интересно. Подписался буду следить за вашим экспериментом.
@ValerianAndStuff
@ValerianAndStuff 6 жыл бұрын
Давольно интересно, продолжай лол до меня только что дошло, что глубокая нейро сеть это грубо говоря огромное уравнение
@foo52ru
@foo52ru 6 жыл бұрын
Собственно примерно так и есть. Скопирую из комментариев выше: "Классические искусственные нейронные сети , всё то огромное многообразие современных крутых нейросетей, от тех, что распознают котиков и самолетов, до тех, что играют в игры Атари и доту - всё это, по сути, к сводится к задаче апроксимации функций. Есть некий вход, есть некий выход, сеть должна обучиться функции, которая примерно отображает вход на выход. Ни более, и не менее. А реализуются сети через много-много операций матричного умножения."
@SweetieSnowyCelestia
@SweetieSnowyCelestia 5 жыл бұрын
0:25 - можно получить схожий результат с Sobel Filter'ом. Но там предназначение чутка другое
@darkseptember7136
@darkseptember7136 6 жыл бұрын
ты крутеший чел , с суперским контентом, продолжай том же духе
@Poker-s_S.V.
@Poker-s_S.V. 4 жыл бұрын
По моему вы очень хорошо разбираетесь в нейронных сетях, могли бы вы создать полноценный урок по нейронным сетям с ЗАОСТРЕНИЕМ НА ВАЖНЫХ ДЛЯ ПОНИМАНИЯ МОМЕНТАХ, ну тоесть по пунктам какую роль играют слои, ДЛЯ ЧЕГО НУЖНЫ ВЕСЫ, как распознается звук, видео и тд...ну тоесть весь потенциал ваших знаний по нейронным сетям в одном или нескольких уроках. НА ЯЗЫКЕ ПРОГРАММИРОВАНИЯ к примирования на С++ (только не готовый питон, потому что важно понимание внутренностей.). Понимаю, что на ютубе этого добра навалом, но по моему у вас понимание без лишнего хлама, от чего уроки получатся компактними.
@yaroslavtkl5513
@yaroslavtkl5513 5 жыл бұрын
Всю жизнь думал, зачем нужна математика для программирования, ведь там нужно хорошо мыслить, уметь писать код что бы был читабельным и работающим а математика по сути то и не нужна, но с этого видео увидел какие вещи можно творить с помощью математики! Спасибо автору за расширения сознания в области программирования!
@SergeyMazurkin
@SergeyMazurkin 6 жыл бұрын
спасибо за труд. и спасибо за Pixilang.
@РоманЛева-й9з
@РоманЛева-й9з 5 жыл бұрын
Блин, через два года я только теперь понял зачем квадраты ошибок. Да, математике во веки слава!
@Dalavir
@Dalavir 3 жыл бұрын
А когда метод обратного распространения ошибки Вы описываете, разве не надо нормировать веса? Может же получиться, что ошибка на некотором нейроне может быть меньше, чем сумма входящих нейронов...
@super_man-ArtOfWar3
@super_man-ArtOfWar3 2 жыл бұрын
6:30 обьясните пж, что нужно передавать в производную фнкцию чтобы на нее умножить?
@viktorcooper5675
@viktorcooper5675 6 жыл бұрын
вы меня заразили и вдохновили ) на праздниках решил взяться за шашки. лет 10 в руки не брал и вот. написал все это на с++. ни как обучацо не хотело. пока образы с одной палкой (горизонтальной или вертикальной) не стал скармливать сетке в три раза чаще чем с двумя в одной эпохе. плюс добавил немного шума на вход. за пицот-шессот эпох учится. но я сделал с одним скрытым слоем 9-6-2 получилось. щя попробую вашу конфигурацию. интересно слушай )
@viktorcooper5675
@viktorcooper5675 6 жыл бұрын
вашу конфигурацию тоже удалось обучить. только больше итераций требуется. таргеты для обоих сетей 0.9 и 0.1. на входы подаю 0.99 и 0.01 с некоторым случайным шумом на каждом входе. обе без нейронов смещения. нужна теперь возможность сохранять и загружать параметры. и научиться скармливать реальные картинки. я уже позабыл все эти GDI, смотрю на свой древний код и ничего не понимаю )
@foo52ru
@foo52ru 6 жыл бұрын
Там и нужен один скрытый слой, я использовал два, что бы посмотреть корректность работы функций. Сейчас доделываю видео по работе с реальными картинками.
@viktorcooper5675
@viktorcooper5675 6 жыл бұрын
тоже решил растить "свовего тамогочи" чисто ради удовольствия. могу поделицо исходниками. тем более что сегодня в них нет ничего секретного )
@СергейПартизанов-н1х
@СергейПартизанов-н1х 6 жыл бұрын
Класс! Это очень приемлемо для восстановления и оценки растровой графики, но не для векторной. Два года читаю в новостях- нейросеть, нейросеть... Одним Вашим видео понял ( в общих чертах), что и как она считывает. Сразу призадумался, как это можно использовать. Понимать, не ломая глаз ( на 85-90% ), капчу на сайтах? - Не нужно. Обработка ( восстановление) повреждённых фото (старинные, чёрно-белые )? Как вариант - интересно, зависит от степени повреждения снимка. Не об этом хочу сказать. Спасибо за пояснения алгоритма работы! Очень интересное видео! P.S. Продолжения ждём. Особенно- применение (интересное ( ознакомительное ), использование) на наших, не супер компьютерах.
@CapitanSuk
@CapitanSuk 6 жыл бұрын
Чтобы увидеть на то, как нейросети можно использовать, достаточно посмотреть на DeepHD, на автомобили с автопилотом, например, Tesla, у Яндекса и Гугла тоже есть какие-то наработки, вот уже в России вводят наклейку "А" для техники с автопилотом. А боты уже давно научились расшифровывать капчу, так что здесь им остаётся лишь держать планку.
@СергейПартизанов-н1х
@СергейПартизанов-н1х 6 жыл бұрын
@@CapitanSuk Я всё сказал выше. Мне Tesla- не интересна, и еже с ними... Ещё вопросы, по существу, будут?
@Καιρός-ζ6σ
@Καιρός-ζ6σ 6 жыл бұрын
@@CapitanSuk Боты еще не научились расшифровывать капчу. Есть соответствующие сервисы, в которых капчу расшифровывают индусы в ручном режиме, сидя у себя в Индии и выдавая ответ по линиям связи. Стоимость обработки одной капчи - около 10 центов.
@Καιρός-ζ6σ
@Καιρός-ζ6σ 6 жыл бұрын
@@СергейПартизанов-н1х В этом твоя проблема: ты говоришь "я все сказал выше" и не слушаешь чужих мнений, хотя до этого ты самостоятельно признал, что нихера в предмете не понимаешь. А ведь человек тебе дело может говорить.
@SIM31r
@SIM31r 6 жыл бұрын
Вот нейросеть прекрасно восстанавливает цвет на старинный ч/б фотках, особенно хорошо когда узнает объекты demos.algorithmia.com/colorize-photos/
@OPKECTPAHT
@OPKECTPAHT 6 жыл бұрын
Я думаю, что нейросети дадут в ближайшие годы новую профессию. Конечно нейросети в начале пишут программисты, но дальше, после написания кода, идёт самое сложное, это обучение сети. И это отдельное кунг-фу. Появится профессия конструктора нейросетей и учителя-тренера нейросетей. Посмею себе дать совет для "лириков", воспринимающих визуальные образы лучше, чем код. Тем кто желает войти в тему, не изучая математики и низкоуровневого программирования посоветую начинать вот тут: playground.tensorflow.org
@Rayvenor
@Rayvenor 6 жыл бұрын
К сожалению я потерял ссылку на какую-то энциклопедию, где про нейрон смещения было написано, что он может обучаться так же, как обычные нейроны. Но вот нашёл другой источник: neurohive.io/ru/osnovy-data-science/osnovy-nejronnyh-setej-algoritmy-obuchenie-funkcii-aktivacii-i-poteri/ Я обучаю нейрон смещения и это дало больший шанс, что сеть начнёт обучаться. Сейчас поздно, потом на свежую голову дополню комментарий как это делаю. На производную умножаю, когда вычисляю ошибку. В моём источнике она называлась Сигма. Но, когда я вычисляю поправку к весам (называлась Дельта), я умножаю на эту Сигму. Я не вижу почему тут вообще может быть два варианта. Дельта считается как умножение скорости обучения на значение нейрона и на Сигму. А Сигма это разность межу желаемым значением, полученным значением нейрона, помноженная на производную.
@foo52ru
@foo52ru 6 жыл бұрын
Если при расчёте ошибки нейронов сразу не умножать на производную, то ошибка не затухает и может быть распространена на большое количество слоёв. Если сразу умножать на производную, то ошибка быстро затухает и через несколько слоёв может уменьшится до нуля. В большинстве источников описывается второй вариант. Если не делать более двух скрытых слоев, то он прекрасно работает, только коэффициент обучения нужно больший ставить, чем для первого варианта.
@BlYur
@BlYur 6 жыл бұрын
Вот ещё одна книга по нейросетям для чайников: «Тадеусевич Р., Боровик Б., Гончаж Т., Леппер Б. Элементарное введение в технологию нейронных сетей с примерами программ, 2011 г.»
@foo52ru
@foo52ru 6 жыл бұрын
Спасибо.
@DG_nomad
@DG_nomad Ай бұрын
Спасибо большое за интересный ролик
@Profil2579
@Profil2579 6 жыл бұрын
А что за нейрон смещения? Какова его функция? Весь ролик ждал, разъяснения, но так и не услышал =)
@ВасяНосоглотов
@ВасяНосоглотов 6 жыл бұрын
Приплюсовывать числа независимо от входных нейронов
@foo52ru
@foo52ru 6 жыл бұрын
Он сдвигает выходы нейронов в ту или иную сторону в не зависимости от того, что на входе. Проще объяснить на линейном классификаторе. На плоскости нарисованы точки двух цветов, нужно провести прямую линию, разделяющую точки одного цвета от другого (точки расположены так, что это можно сделать с помощью прямой). Есть оси координат х у. Формула прямой у=а*х. Здесь х - входной нейрон, а - это вес связи, с его помощью можно регулировать угол, под которым идет прямая, у - выходной нейрон. Но такая прямая всегда проходит через центр координат и не всегда может разделить точки одного цвета от другого. Если добавить смещение, то мы можем сдвигать прямую вдоль оси координат и выполнить задачу. Формула будет выглядеть уже так: у = а*х + в*1 Где в - это и есть вес связи между нейроном смещения (у него на выходе всегда 1) и выходным нейроном у. В нейросетях тоже самое, только там не прямая, а плоскость сложной формы в многомерном пространстве и с помощью нейрона смещения мы можем сдвигать её. Это облегчает решение задач. Если смещение не нужно для решения задачи, то во время обучения веса, идущие от нейрона смещения, просто обнулятся.
@madeinussr1983
@madeinussr1983 5 жыл бұрын
15:05 "Сеть проявила хитрожопость..." Люди у себя это называют "интуицией".
@xakkep9000
@xakkep9000 6 жыл бұрын
15:06 сеть проявила хитрожопость :D ёрт да это гениально!
@cultofsogga5863
@cultofsogga5863 5 жыл бұрын
Респект за эти видео. Python всё таки облегчил бы жизнь)
@alexeyzhurin1044
@alexeyzhurin1044 6 жыл бұрын
СПС, Ждёёём второй части. =)
@bvg129
@bvg129 6 жыл бұрын
Советую более длинные и информативные названия переменных, хотя бы только для показа в видео. Советую английскую литературу, если есть возможность Советую чуть более быстрый и оживленный темп речи, но это субъективно Советую продолжать заниматься подобным
@FyrenSelvin
@FyrenSelvin 6 жыл бұрын
Это просто офигенно!
@СергейБелинский-ж5в
@СергейБелинский-ж5в 5 жыл бұрын
Мне нравятся ваши преобразования * материи и времени 🌊🙊
@__asd
@__asd 2 жыл бұрын
7:40 мне кажется, или там должны быть ошибки входящего слоя, а не исходящего? Т.е. правая сторона нейронов должна влиять на эти слои... Или правые и есть выходные?)
@__asd
@__asd 2 жыл бұрын
Судя по тому, что производная тоже правые слои берут, то здесь out подразумевает право, а не лево)))
@__asd
@__asd 2 жыл бұрын
Получилась такая фиксилка ;'-} Надеюсь верно получилась. Чистый Си, да и только. // a - текущий слой нейронов, b - следующий, errs - ошибки следующего void fig_bug(int sa, int sb, float a[sa], float b[sb], float errs[sb], float *weights, float k) { int pos = 0; for (int R = 0; R < sb; R++) for (int L = 0; L < sa; L++) weights[pos++] += k * errs[R] * b[R] * (1 - b[R]) * a[L]; }
@MagicMightNew
@MagicMightNew 6 жыл бұрын
На самом деле, как бы парадоксально не звучало для многих, но в нейронных сетях самое простое - математика. Гораздо сложнее понять и подобрать (а еще сложнее составить) правильную основу для обучения более-менее сложной нейронной сети.
@mikhailkuznetsov7813
@mikhailkuznetsov7813 5 жыл бұрын
2:00 Подскажите, пожалуйста, где в функции f(e), приведённой в видео, можно взять значение переменной x, которая находится в показатели степени числа e, в знаменателе дроби?
@foo52ru
@foo52ru 5 жыл бұрын
функция записывается f(x). x - это число, которое передаётся функции. В данном случае - то, что пришло на вход нейрона(сумма входных сигналов). Результат, полученный после применения функции - это выход нейрона.
@avatarcybertronics2584
@avatarcybertronics2584 6 жыл бұрын
Кто не хочет разбираться в нейросетях, но хочет обучить свою для своих задач без кодинга - есть платформы такие, скажем для текста Graphgrail Ai, грузите туда текст с разметкой и обучаете, на выходе сетка сможет отличать отзывы плохие от хороших на фильмы, определять эмоции, критику, похвалу, в общем всякие тонкие детали смысла
@trueman9363
@trueman9363 5 жыл бұрын
Если как то объединить нейросеть с переменой координат пространства и времени... Сможем ли мы на выходе получить телевизор, показывающий исторические и будущие события, в том числе из паралленльной вселенной? ))) Спасибо за детальное описание нейро сети, всегда было интересно, а времени разобраться не было! Удачи автору в исследованиях!
@cekkush
@cekkush 3 жыл бұрын
Огромное спасибо. Думаю автор объясняется то, что делает tenderflow, numpy, но не только.
@emilio88regis
@emilio88regis 5 жыл бұрын
Плюсую за математику! Если заниматься хай-теком, без нее как без рук. Сам страдаю.
@ancubic1549
@ancubic1549 6 жыл бұрын
Великолепно, наконец-то понял эти чертовы нейронные сети. И да, лучше пиши на C++, Pixilang это ужс....
@Orakcool
@Orakcool 6 жыл бұрын
пусть пишет хоть на асме, у него достаточно интересная подача и подход даже к элементарным задачам. Кое что можно взять на вооружение при обучении детей программированию
@ancubic1549
@ancubic1549 5 жыл бұрын
@@Orakcool Дети в программировании это плохо в 70% случаев.
@Orakcool
@Orakcool 5 жыл бұрын
+Eugene Pavlov, откуда статистика? Какая была выборка? Что с остальными 30%? Привожу Ваши-же слова - "Великолепно, наконец-то понял эти чертовы нейронные сети." вот это вот наконец-то могло произойти намного раньше. Что-же в этом плохого?
@mikhaildidur9567
@mikhaildidur9567 5 жыл бұрын
4:13 если слоёв больше двух то функцию активации использовать для нейронов каждого слоя?
@foo52ru
@foo52ru 5 жыл бұрын
да
@ProgrammerForever
@ProgrammerForever 5 жыл бұрын
Я хоть и физик, но математику уважаю и обожаю.
@KlinovAS
@KlinovAS 6 жыл бұрын
я пытался понять в чем перевес сети. например то что вы показывали вначале ролика я делал методом "гаоса". тоесть, вокруг точки по радиусу собирал цветовые значения и искал таким образом контрастирующие различия. У меня в начале эксперимента получилось в точности тот же ефект который уже есть в фотошоп (Свечение краев). Вначале я усреднял и у меня все было чернобелое, но потом вышло в точности такое же. Наигравшись с коефициентами я получал лучшие результаты. Но в какой-то момент я понял, что человек ищет грани обекта лучше. Мне не давало покоя почему в затемненных участках способность ухудшается. Там не помогает ни умножение ни степень. С помощю фантазии и проб я подобрал необходимую функцию и на много улучшил результат прибавив выделения контраста контуров и уменьшив шум в целом. А дело действительно в цвете (значениях). В среднем диапазоне функция притупливает ощущение, а в ярких и слишком темных я функция обостряет чуствительность к наименьшим изменениям. Таким образом получилось как искусственное усреднение (не так как мы привыкли). Ну а теперь перейдем к распознаванию символов которое я сделал не зная никакой нейросети. Я использовал прямоугольник который может охватить любой символ одного размера, например 14пкс. Дальше я сделал удобные инструменты для обучения. Я вложил символ в полотно и мышкой тыкал в места где линия должна проходить. Каждая моя точка которую я налаживал попадала в список, по которому я мог в любой момент подсветить данную точку. Эта точка также имеет значение по умолчанию 100%, который можно изменить на любое свое значение. Мне достаточно лишь 10 точек чтобы обозначить например цифру "1". На правую кнопку мыши я сделал аналогичный функционал обозначения да только это точки в которых не должно быть никаких цветов. Также по умолчанию 100%. Теперь все правильные ответы суммировались, но с небольшим лишь коефициентом. Любая ошибка (там где нарушено правило) отбирало штрафных балов на много больше чем 10 правильных точек вместе взятых. Это были точки "присутствия". Аналогично с точками "отсутствия". За правильные - плюс, неправильные - жосткий минус. В итоге я получал четкий результат >0 это нужное значения,
@KlinovAS
@KlinovAS 6 жыл бұрын
Отбросим всю сеть. Возьмем только последнюю исходя из твоего видео. Там матрица [4 2]. Получается 4 входа приходят на одну нейронку из 4х и также на другую. А что ж это за функция такая, что говорит правильный результат ?? вот что именно я не понял из нейросети!!! Короче у нас есть X + Y + M + N = S, если S не равно правильный ответ, то что именно менять Х? Y? M? или N? Вот в чем главный вопрос! Оно работает, но ни один академик не даст адекватного ответа КАК! И смотрю вакансии. Одни люди занимаются программированием и делают действительно потрясающие вещи. Например тот же Унриал 4 - это же космос просто. Реальность. А другие типа Гугла и фейсбука дрочат нейросеть, выжимают из нее все соки, короче занимаются херней, игры устраивают у кого сеть быстрей учится. Никто не меняет подход. Зарплаты там улетные, а людишки тупеют, ведь есть нейросеть. А ты мол ведро отстаешь от жизни. Уже ведь Си не в моде, переходи на Пайтон, уже мол PHP не в моде - переходи на NodeJS. А задачи какие? Сверстать сайт? Так разберитесь в чем же перевес NodeJS. Если удержать одновременно миллион соединений - так NodeJS бог. А если просто обычный каталог или поисковик, то снова же мучаются все на NodeJS. Как оказывается бог лажает, мол вылетает где-то память. Ну дебилам этого не объяснишь. Главное что язык в тренде))))
@KlinovAS
@KlinovAS 6 жыл бұрын
Кстате я не только занимался распознаванием картинки без нейросети. Я также сделал программу которая ищет дубликат музыки. Также не использовал нейросеть. Мои результаты на столько хороши, что программа находит минус (фонограмму) и оригинал. Вот только если изменить темп, то тогда распознавание уже не будет работать. В целом из 160Гб музыки на поиск приходится только 1-2 секунды за счет оптимизации. Ведь каждый трек сканировался и в базу сохраненная только упрощенная 1Кб формула. А если бы я разложил музыку на Фурье, то скорее всего бы мог найти трек даже по небольшому кусочку. И зачем же все это нужно было мне? Просто я сделал лет так 10 назад музыкальный аппарат (есть видео на канале) в который бросаешь 50 монет и можно заказать музыку. Столкнулся с проблемой "где искать новую музыку и хорошо отсортировать". В итоге пришлось еще и с текстами поработать. Тут тоже своего рода обучение. Но никакой нейро сети не использовал. Обычная база данных. Слои важности. Один слой говорит о важности, другой о неважности, последний решает в целом, есть база отдельная исключений. В общем если бы я учил сетку, то мне бы пришлось ее учить десятки лет и просиживать тысячи часов. А с программой я посидел упорно три месяца. Я подобрался к текстам очень близько. Но когда пошла прибыль я просто переключился на заказы. А так мне хотелось скормить законы Украины, чтоб программа могла отвечать на простые поставленные человеком вопросы. Чтоб перебирались все синонимы и вообще это язык абстракций, когда несколько слов = одному значению в одной баз, еще больше слов = также одному значению в другой базе и т.д. Именно так Anny L0rrak = Ані Лорак, ctas mixaylov = Стас Михайлов. Явное обучения всегда быстрей нейросети. Чтобы понять следующее действие нужно учитывать два предыдущих - у нас получится линейная функция. Это ведь очень просто. Не так ли? Но нейросетка будет тысяча раз вертеть в разные стороны руль автомобиля пока поймет что влево это влево. Вот и все различия. Кто-то громко нашумел и все подумали, что мы поняли как все устроенно. Даже нейрохирург-программист ученый признал, что мозг работает по другому. Похоже, но по другому. В мозге все сохраняется во множество мест. Это подобно уже квантовому процессору. А отпечаток действительно напоминает нейросеть. Но если бы у вас был квантовый компютер в каждого дома, то не проблема - я бы даже ничего не писал. Мучайте сеть сколько хочется. А они и так уже используют все компы под видом криптовалюты и толк очень невелик. Уперлись в стену и одни только эксперименты.
Нейронная сеть. Часть 2. Рисунок из фотографии.
11:31
foo52ru ТехноШаман
Рет қаралды 92 М.
Нейронная сеть на Python с нуля
14:40
Дмитрий Коробченко
Рет қаралды 161 М.
Правильный подход к детям
00:18
Beatrise
Рет қаралды 11 МЛН
1% vs 100% #beatbox #tiktok
01:10
BeatboxJCOP
Рет қаралды 67 МЛН
REAL or FAKE? #beatbox #tiktok
01:03
BeatboxJCOP
Рет қаралды 18 МЛН
Искусственная жизнь. Симуляция, которая смогла...
23:48
[DeepLearning | видео 1] Что же такое нейронная сеть?
19:00
3Blue1Brown translated by Sciberia
Рет қаралды 816 М.
Предел развития НЕЙРОСЕТЕЙ
18:53
Onigiri
Рет қаралды 209 М.
Правильный подход к детям
00:18
Beatrise
Рет қаралды 11 МЛН