Показал это видео своей нейронной сети, говорит надо лайк поставить...
@thzeroucken5 жыл бұрын
Нажми класс если тебя держит умный дом
@FUNKAFANTAS15 жыл бұрын
@@thzeroucken "Нажми класс" как это убого звучит
@mf.89855 жыл бұрын
@@FUNKAFANTAS1 Нищебродский
@imch-familiya4 жыл бұрын
@@thzeroucken а ты точно сможешь помочь, черт он идет
@mem35254 жыл бұрын
гыгыгыгыгыгыгыгы
@Tr00pikan006 жыл бұрын
То что система проявила хитрожопость- убила XD Класс мне понравилось!!!
@zerg1005005 жыл бұрын
Услышал и заплакал. Ааааа!!! Сеть проявила хитрожопость:))) ааааа
@retret45386 жыл бұрын
(Сейчас я уже знаю про нейросети) Вот честно, ты этот материал намного лучше рассказал. У тебя нет сплошного текста с непонятными формулами через переменные в три и более индексов, ты всё рассказал пошагово без стояния на одном моменте по несколько минут + сразу показал применение и очень простую реализацию, не используя сторонних библиотек, на простом коде pixilang'а. Делай дальше!
@5066 жыл бұрын
Афигенный у тебя контент. Желаю дальше развиваться и выкладывать свои успехи на ютуб. У тебя стабильно раз в месяц видео выходит. Круто, что упор на качество, а не на количество. Я уже привык - сначала ставлю лайк, потом смотрю видео.
@ATtiny13a-PU6 жыл бұрын
тоже лайк сразу поставил, мне очень зашло
@ДжигурдаДжигуртаниан6 жыл бұрын
Как говорится "Ничего не понял, но очень интересно"
@user-xtkjdtr166 жыл бұрын
Ну там ни "нечего", там другое слово)))
@JosephStalin67305 жыл бұрын
@@user-xtkjdtr16 Ну да, там написано "ничего".)
@ATtiny13a-PU5 жыл бұрын
@@JosephStalin6730 , цензура
@ancubic15495 жыл бұрын
Так уходи отсюда
@himsmit29015 жыл бұрын
НИЧЕГО ИНТЕРЕСНОГО В НЕПОНЯТНОМ... ЧАСТОТНОМ ХАРАКТЕРЕ УСИЛЕННОГО СИГНАЛА НЕЙРОАКСОНОДЕНДРИТНОГО ХАРАКТЕРА,С ХАРАКТЕРИСТИКОЙ ОТКРЫТОГО КЛЮЧА...ТАК И ТЯНЕТСЯ НЕРВНЫЙ ИМПУЛЬС К МЫШЦЕ РУКЕ ЛАЙК ПОСТАВИТЬ...НО НЕНАШЛОСЬ АРГУМЕНТОВ.
@SergejKolmogorov6 жыл бұрын
Когда-то в универе поверхностно начинал разбираться с искуственным интелектом но прекратил. Случайно открыл твой ролик и как-то чувствую, что ты меня смотивировал снова попробовать в это погрузиться. Спасибо!
@СергейЛиньков-э2с6 жыл бұрын
Автор, где ты был когда я учился. Плакать хочется. Впервые я хоть что-то понял про нейросети. С благодарностью и уважением отношусь к тебе. Искренне желаю творческих успехов и всех благ. Чести и удачи! ;)
@DmitriyMX6 жыл бұрын
тем не менее, по вашему ролику мне стало намного понятнее строение и реализация нейронных сетей. Благодарю за помощь в "первой ступеньке" к пониманию темы.
@MihailOnuchin6 жыл бұрын
Как тречок Кровостока слушать...)))))
@andy0x585 жыл бұрын
После твоего коммента я не смог дальше слушать автора)))
@lit10415 жыл бұрын
Эта музыка у меня в голове заела, на столько всё плохо))
@artyzn5 жыл бұрын
Коллаб НТР и Кровостока
@ИванСелянкин-д3т5 жыл бұрын
смотрю на скорости 1.25
@fredfredburger24545 жыл бұрын
Хочешь станцуй грязные танцы. Хочешь считай редкие шансы. Умножай всё в уме. Дели на бумажке - А я тут затру, про смерть Чебурашки...)
@Darthkodius6 жыл бұрын
Годно. В което веке доходчиво про нейросети.
@dmitryzhuk2206 жыл бұрын
Вот +++++++++++, а то напишут где в иной раз: "Вам наверняка не понятно как происходит A+B (я утрирую), ну а из этого нейронку построить - очевидный шаг. Всем спасибо до свидания" и ничего не понятно - а тут классно, всё понятно)
@denispashnev9126 жыл бұрын
Разве сложно перемножать матрицы и оптимизировать веса градиентным спуском?? Это всего лишь аппроксимация функции
@dmitryzhuk2206 жыл бұрын
@@denispashnev912 вот-вот, а у него всё понятно)
@prepodsinmysharagawerystup73576 жыл бұрын
Слава математике!
@LiquidPotroh6 жыл бұрын
Математикам слава!
@funtorm5 жыл бұрын
@@ВикторБухаров-ф3ь алгебра изи предмет
@alotino5 жыл бұрын
Слава богу
@diam0nd2115 жыл бұрын
Мотемотечке*
@DanielLenskiy5 жыл бұрын
Матану слава!
@rgbbarhat79886 жыл бұрын
ооочень кайфанул! Спасибо огромное. Подписка! Давно не хватало такого канала мне. Сочетание твоего голоса и интонаций с темой и музыкой неожиданно хорошо заходит.
@overcreated5 жыл бұрын
Это самое лучшее объяснение работы НС, что я видел!
@nilsharafutdinov36792 жыл бұрын
"сеть проявила хитрожопость..." Поржал, стоит посмотреть хотя бы ради того чтобы понять эту фразу. Лайк.
@taxiart83636 жыл бұрын
Идея для экспериментов: 1 сделать песочницу типа змейки только с более сложным миром и стравить разных змеек между собой, чтобы посмотреть какая конфигурация нейронной сети жизнеспособнее. 2 в той же песочнице сделать так чтобы конфигурация нейронной сети генерировалась случайно, а в процессе появлялись новые случайные блоки и дообучались. А победители могли перемешивать конфигурации своих сетей с разной степенью. Цель посмотреть сможет ли комп сгенерировать лучший вариант сети под задачу. 3 ко 2 варианту прирастание новых сенсоров. 4 змейки с разными маленькими сетями соединить в коллективный разум, мегасеть одного вида будет сражаться с мегасетью другого вида.
@taxiart83636 жыл бұрын
kzbin.info/www/bejne/gXSlkJiPoN2eb5o тут нейронная сеть на биологических параметрах
@nikpolyware72515 жыл бұрын
Хорошая задумка, но уже становится ясно что обученная нейросеть (сети) будут применимы только э к этой песочнице, к этому типу задач. Вот состряпать нейросеть которая обучена побирать необходимые параметры для предоставленной модели с дальнейшей целью контроля обучения нейросети более низкого уровня для работы с предоставленной моделью. (модель обучения с учителем, где учителем будет нейросеть :) ). Если очень закручено написал, могу переписать по проще. Сам использую brainJS, постепенно подбираюсь к convnetjs и tensorflow
@noitaukkokronk2 жыл бұрын
Михаил, как ни странно, после просмотра множества роликов про нейросети, этот оказался наиболее простым и понятным для понимания.
@Василий-с5е6ж5 жыл бұрын
Я месяц искал и тестил формулы для нейронных сетей чтоб правильно обучать и всегда напарывался на сети с ошибочными формулами. Нарвался на это видео и решил глянуть. Автор без воды и по существу рассказал как и что работает. Лучше инструкции и представить не могу. ПС: У меня сеть сошлась по этим формулам, спасибо)
@evgenn7876 жыл бұрын
Чувак, я нифига не понял что ты сказал, но ты заговорил ...... и достучался до сердца !!! =)))
@meanderIse5 жыл бұрын
Просто, доступно, и по сути. Это видео меня реально заразило! Теперь думаю где можно применить нейронные сети в своих (в т.ч. будущих) проектах : )
@legostroitel94294 жыл бұрын
Большое спасибо! Видео и правда полезное! Главное (что другие не снимают) что код понятен для чтения его не много и зависит от темы, т.е. разказ код расказ код расказ код! Этото очень удобно и ориентироваться не сложно! Я переписал всё на другой язык и на удивление всё заработало!!!
@КириллСоколов-ш7к6 жыл бұрын
Жду вторую часть.
@cheburek51166 жыл бұрын
я очень жду
@aladinmovies6 жыл бұрын
Классное понятное видео по контенту! В коем то веке что то практично встретил! Жду продолжения по этой теме.
@vladislavunderoak43236 жыл бұрын
Слава Науке! Математикам Слава! Кто не дифференцирует, тот Паскаль!
@gigigaga54696 жыл бұрын
Слава Україні
@Orakcool6 жыл бұрын
+Vitalii Savchuk, зачем?
@АлексМ-м7ф5 жыл бұрын
@@gigigaga5469 хероям в срало
@fredfredburger24545 жыл бұрын
@@gigigaga5469 тупа рашня ніколи не скаже "Слава " своєму смітнику,зате буде обсиратися коли хтось скаже "Слава Україні". хворі люди...
@ex-format4 жыл бұрын
Ребята, давайте жить дружно
@РоманДьяков-х8е5 жыл бұрын
спасибо, ты очень мне помог, долго не мог понять как оно работает, а в интернете подробной информации так и не нашёл, но после просмотра твоего ролика получилось написать многослойный персептрон
@Andrewkrivoshein5 жыл бұрын
Огромное спасибо Вам за видеоуроки, у Вас замечательное чувство юмора при этом. Здорово!
@FoxSlyme5 жыл бұрын
Спасибо огромное! До этого видел много материала про нейросети из других источников, но здесь для меня наиболее понятно и доходчиво! Теперь я понимаю их не только снаружи, но и внутри ;)
@maksimka89935 жыл бұрын
Самое лучшее видео по нейронным сетям что я видел!
@cantwaitforit4 жыл бұрын
Если быть серьезным, то видео - действительно классное. Видно, что старался. Очень понятно и доходчиво обьясняешь. А если не быть : АААААААААААА СПАСИБО, НАКОНЕЦ Я ЧТО-ТО ПОНЯЛ В ИИ!!!
@meanderIse5 жыл бұрын
По поводу Вашей ошибки - не ошибается только тот кто ничего не делает. Отличный ролик! Подписался )
@Trogls6 жыл бұрын
Спасибо Вам за такие хорошие видео. Ждём продолжения.
@ВладиславА-н7й5 жыл бұрын
Автор, огромный "респект и уважуха"! Сам пытаюсь разобраться с темой нейронных сетей, сижу с карандашом и бумагой, пытаюсь повторить путь Автора. Есть вопрос, на 6:39 идет корректировка весов связи и вычисляется производная df(e)/de. Я считаю, что запись df(e)/de не корректна. По правилам математики df(e)/de - это будет какая-то функция от переменной e: f'(e), именно функция, не число! Но здесь же вы оперируете абсолютными величинами ( числами). Я считаю более корректная запись должна выглядеть следующим образом: вычисляем производную функции активации в точке x=e: df(x)/dx | x=e. Вот теперь мы получаем число, которое участвует в вычислениях. В общем случае, для произвольной функции активации, при корректировке весов надо использовать наклон функции активации в точке e - в общем-то геометрический смысл первой производной))) А в целом все очень доступно и понятно! Спасибо за видео!
@АлександрРуденко-п5к2 ай бұрын
Ничего страшного, что вы пропустили момент со средней квадратичной ошибкой, зато теперь благодаря вашему видео я понял смысл среднеквадратичной ошибки.
@AlexLink-rb5by5 жыл бұрын
Спасибо за подробное разжовывание, похожих роликов не встречал...
@staf54966 жыл бұрын
Почему дневник автора гораздо полезнее и понятнее руководств, инструкций и книг? 😆 Автора прошу больше рассказывать про нейросети. 👍
@250-p6i6 жыл бұрын
Потому, что Ваш уровень знаний ближе к автору видео, а не автору книг.
@xControl277 Жыл бұрын
Спасибо за ролик. Уже 4 года пытаюсь подобраться к нейронкам. Книги с питоном не сильно помогают, только отупляют, слишком много скрытой математики. На последнем подходе сконцентрировался на задаче написания простейшего персептрона. Понимая, что понадобятся очень эффективные вычисления постепенно подбираюсь к вычислительной математике, x86 ассемблеру, языку Си и операционной системе UNIX. Вы мне открыли глаза, я почему-то был уверен, что функция активации стоит на последнем выходном слое нейросети, а сейчас осознал насколько ошибался. И кстати в Вашем примере функция активации называется сигмоида, а не логистическая. Для большего изучения терминологии советую: Саймон Хайкин. "Нейронные сети. Полный курс."
@Информатика-м6х4 жыл бұрын
Спасибо, очень простое и доступное объяснение без спама!
@Butcer6 жыл бұрын
Чувак, мне нравится твоё занятие нейросетями! Пожалуйста не бросай это дело, осень жду продолжения
@alexey_pryadko5 жыл бұрын
Бро, большое тебе спасибо! Лазил по другим сайтам.... Лазил, и ничего так и не понял... Уже решил забросить... Но! Тут натыкаюсь на твой ролик, смотрю и думаю, как этот человек всё понятно объясняет! И подумал я, за хорошее объяснение ставлю лайк! Спасибо за понятно изложенную информацию!
@ВасилийС-м1ю5 жыл бұрын
Спасибо за канал. я как раз ночью думал для себя что то подобное организовать.
@81n906 жыл бұрын
Подписка, однозначно! Очень нравится изложение, спокойный конкретный голос, кто-то скажет - монотонный - но это не так. Очень доходчиво для тех кто только знакомится с нейронками - мне бы этот видос лет пять назад посмотреть ) По теме - хотел бы увидеть вашу работу с рекуррентными и сверточными сетями, в таком же понятнтом виде с примерами и деталями.
@dev_via_fun4 жыл бұрын
Автор! Никто так хорошо не обучает этому как ты... Ты просто топ!!!
@nikitapetrenko67576 жыл бұрын
ТОП контент на канале! Побольше бы такого, тем более в русскоязычном сегменте! Залпом посмотрел почти все. Надеюсь увидеть что-нибудь об обучении с подкреплением. Благо тема хорошо подходит для игр типа змейки, но к сожалению достаточно мало годной информации по ней. Да и сама тема гораздо более сложна для понимания. Но с таким серьёзным подходом я думаю можно разобраться.
@andreysilver54966 жыл бұрын
Как же хорошо вы все разложили. Спасибо.
@PrOxDES6 жыл бұрын
В предвкушении второй части подписался. С Новым Годом!
@gfm99736 жыл бұрын
Просмотрел видео и нашел ошибку в своей нейронке, спасибо! Жду продолжения, может в очередной раз найду ошибки и пробелы знаний у себя.
@igorekv5 жыл бұрын
Ютубчик подкинул твой видосик про змейки, заинтересовался этой темой, твои видео лучшие =) Спасибо.
@survivorspace8964 жыл бұрын
Круто! В остальных ролика тонны воды, зубодробительных формул, и крайне много ущербной терминологии, причем ролики обучающие, у тебя же, все доступно и детально описано, спасибо!
@romanmanechkin97356 жыл бұрын
Отличное видео ! Очень буду ждать следующее видео !
@ЯрославФедотов-ь7я6 жыл бұрын
Спасибо за видосы. Очень годно. С нетерпением жду следующего.
@marchpr-n71654 жыл бұрын
Чувак, ты только не обижайся) У тебя не самый приятный голос для диктора, НО я смотрю твои видео и не могу оторваться. И от начала до самого конца ролика не замечаю этого. Классный контент и подача материала! P.S. не вздумай что-либо менять в формате вещания (ни в лучшую , ни в худшую сторону) - это твоя фишка.
@Holme411 ай бұрын
12:50 - Сделал по образцу, немного не сходились показатели в видео, пришлось читать дополнительную информацию. У меня график ошибок другой, напоминает биения (из радио), то-есть, ошибка на графике убывает и возрастает, с каждым поколением уменьшается только пик. Предположительно, это из-за отрицательных значений связей нейронов, которые были изначально, брал в диапазоне от -1,0 до 1,0. считал ошибку по формуле Е = (А1 х А1) + ( Б1 х Б1), где А1 и Б1 - ошибки выходных нейронов. Из наблюдений: - второй вариант библиотеки в корне оказался не рабочим, с ним нейросеть не обучается, запускал обучение множество раз с разными коэффициентами обучения. Исход тот же, обучения нет. - первый вариант нейросеть начинает проявлять "разум" еще на стадии обучения примерно за 150 поколений, с коэффициентом 0,5 , при этом после обучения выходные данные становятся близки к единице или нулю (примерно 0,9864 и 0,0245). Так же, алгоритм можно упростить путем усложнения кода, если использовать нейроны как класс содержащий 2 переменные, значение и ошибку, а так же, список нейронов предыдущего слоя, с которыми связывается. Тогда значения можно сосчитать методом рекурсии. Список нейронов тоже класс, содержит нейрон с которым связывается и коэффициент связи. Ошибку считать в таком случае становиться сложнее, т.к. связи работают в обратном порядке, однако, если в нейрон добавить список ошибок то при распространении ошибки, можно получить список значений ошибок, а после их сложить методом рекурсии. - если расширить количество выходных нейронов, скажем до 36, а на входе оставить 9. то при должных примерах можно обучить нейросеть "увеличивать" изображение в 2 раза без потери качества.
@darkfateinc73335 жыл бұрын
Очень крутой и полезный контент. Спасибо за труды!
@ВалентинаСахарова-ь3б5 жыл бұрын
агонь! а по какому принципу было выбрано количество нейронов в двух скрытых слоях в задаче про вертикальные и горизонтальные линии?
@garrimorg37206 жыл бұрын
Интереснейший канал! Ждем мир ботов на основе конкурирующих нейронных сетей! Рекомендую: Ян Гудфеллоу - глубокое обучение
@stepansidorov87345 жыл бұрын
Класс, хоть это и твой дневник мне стало очень многое понятно. Спасибо!
@gatos-su6 жыл бұрын
Автор, ты капитальный молодец :)
@zajalojalo6 жыл бұрын
Появляйся в моих рекомендациях как можно чаще!
@ИгорьЧернышев-и4ч5 жыл бұрын
Я себя таким идиотом чувствую, жалко не занимался программированием, автор, большое тебе уважение за твою крапотливость и упорство, так держать!!!!!!
@krenciak3 жыл бұрын
Спасибо, классное объяснение! Смотрел это видео ещё в конце 2019, но комментарий написал только сейчас.
@denisdd58854 жыл бұрын
Спасибо тебе добрый человек.Только просмотрев твое видео,понял свою ошибку.
@tistaliv14916 жыл бұрын
Спасибо, я смог сделать нейронную сеть на c++, которая различает цифры с точностью 98%. Жду продолжения))
@YaShoom6 жыл бұрын
+TiStaliv а сама цифры писать умеет? Автор вон не обучал рисовать, а она рисует.
@ВладиславЧе73 жыл бұрын
интересно, занимаюсь такой же задачей в рамках курсовой. Не очень получается, если честно
@VictorGubin6 жыл бұрын
Пробовали распаралеливать/передавать вычисление на GPU через через OpenCL ?
@White_Drake6 жыл бұрын
Жду змейку на основе нейросети)
@igorgrischenko65186 жыл бұрын
Жду нейросеть на основе змейки
@ГригорийСолдатенко-п5ы6 жыл бұрын
Змейка станет предком скайнета - через 1000000 итераций !
@cheburek51166 жыл бұрын
лол
@viRUSS6669996 жыл бұрын
ага, хочешь чтоб было как в матрице?!?!?!
@n1cerecordstv466 жыл бұрын
Интересная работа! Респект автору!
@UCanDo5 жыл бұрын
Спасибо за очень интересное видео!!! Подскажите, а что за музыка у вас используется?
@foo52ru5 жыл бұрын
я сам пишу музыку для роликов
@UCanDo5 жыл бұрын
@@foo52ru КРУТО!!! Я подписан на ваш канал и с удовольствием просматриваю ваши видео. Я радиолюбитель, "ардуинщик" :)) именно любитель, по образованию не имею ничего общего с техникой или программированием. Но ваши видео очень интересны и полезны, так как помогают в понимании определенных алгоритмов. Возможно, когда-то и я дойду до создания своей нейронной сети на микроконтроллерах :)) Желаю успехов вам!
@catzz27905 жыл бұрын
@@foo52ru 💪💪
@les120015 жыл бұрын
@@UCanDo я тоже смотрю ваш канал! Очень круто что есть такие люди которые всем этим занимаются и помогают в понимании просессов)
@ПРИКОЛЫ-т6б6 жыл бұрын
Спасибо. Интересно. Подписался буду следить за вашим экспериментом.
@ValerianAndStuff6 жыл бұрын
Давольно интересно, продолжай лол до меня только что дошло, что глубокая нейро сеть это грубо говоря огромное уравнение
@foo52ru6 жыл бұрын
Собственно примерно так и есть. Скопирую из комментариев выше: "Классические искусственные нейронные сети , всё то огромное многообразие современных крутых нейросетей, от тех, что распознают котиков и самолетов, до тех, что играют в игры Атари и доту - всё это, по сути, к сводится к задаче апроксимации функций. Есть некий вход, есть некий выход, сеть должна обучиться функции, которая примерно отображает вход на выход. Ни более, и не менее. А реализуются сети через много-много операций матричного умножения."
@SweetieSnowyCelestia5 жыл бұрын
0:25 - можно получить схожий результат с Sobel Filter'ом. Но там предназначение чутка другое
@darkseptember71366 жыл бұрын
ты крутеший чел , с суперским контентом, продолжай том же духе
@Poker-s_S.V.4 жыл бұрын
По моему вы очень хорошо разбираетесь в нейронных сетях, могли бы вы создать полноценный урок по нейронным сетям с ЗАОСТРЕНИЕМ НА ВАЖНЫХ ДЛЯ ПОНИМАНИЯ МОМЕНТАХ, ну тоесть по пунктам какую роль играют слои, ДЛЯ ЧЕГО НУЖНЫ ВЕСЫ, как распознается звук, видео и тд...ну тоесть весь потенциал ваших знаний по нейронным сетям в одном или нескольких уроках. НА ЯЗЫКЕ ПРОГРАММИРОВАНИЯ к примирования на С++ (только не готовый питон, потому что важно понимание внутренностей.). Понимаю, что на ютубе этого добра навалом, но по моему у вас понимание без лишнего хлама, от чего уроки получатся компактними.
@yaroslavtkl55135 жыл бұрын
Всю жизнь думал, зачем нужна математика для программирования, ведь там нужно хорошо мыслить, уметь писать код что бы был читабельным и работающим а математика по сути то и не нужна, но с этого видео увидел какие вещи можно творить с помощью математики! Спасибо автору за расширения сознания в области программирования!
@SergeyMazurkin6 жыл бұрын
спасибо за труд. и спасибо за Pixilang.
@РоманЛева-й9з5 жыл бұрын
Блин, через два года я только теперь понял зачем квадраты ошибок. Да, математике во веки слава!
@Dalavir3 жыл бұрын
А когда метод обратного распространения ошибки Вы описываете, разве не надо нормировать веса? Может же получиться, что ошибка на некотором нейроне может быть меньше, чем сумма входящих нейронов...
@super_man-ArtOfWar32 жыл бұрын
6:30 обьясните пж, что нужно передавать в производную фнкцию чтобы на нее умножить?
@viktorcooper56756 жыл бұрын
вы меня заразили и вдохновили ) на праздниках решил взяться за шашки. лет 10 в руки не брал и вот. написал все это на с++. ни как обучацо не хотело. пока образы с одной палкой (горизонтальной или вертикальной) не стал скармливать сетке в три раза чаще чем с двумя в одной эпохе. плюс добавил немного шума на вход. за пицот-шессот эпох учится. но я сделал с одним скрытым слоем 9-6-2 получилось. щя попробую вашу конфигурацию. интересно слушай )
@viktorcooper56756 жыл бұрын
вашу конфигурацию тоже удалось обучить. только больше итераций требуется. таргеты для обоих сетей 0.9 и 0.1. на входы подаю 0.99 и 0.01 с некоторым случайным шумом на каждом входе. обе без нейронов смещения. нужна теперь возможность сохранять и загружать параметры. и научиться скармливать реальные картинки. я уже позабыл все эти GDI, смотрю на свой древний код и ничего не понимаю )
@foo52ru6 жыл бұрын
Там и нужен один скрытый слой, я использовал два, что бы посмотреть корректность работы функций. Сейчас доделываю видео по работе с реальными картинками.
@viktorcooper56756 жыл бұрын
тоже решил растить "свовего тамогочи" чисто ради удовольствия. могу поделицо исходниками. тем более что сегодня в них нет ничего секретного )
@СергейПартизанов-н1х6 жыл бұрын
Класс! Это очень приемлемо для восстановления и оценки растровой графики, но не для векторной. Два года читаю в новостях- нейросеть, нейросеть... Одним Вашим видео понял ( в общих чертах), что и как она считывает. Сразу призадумался, как это можно использовать. Понимать, не ломая глаз ( на 85-90% ), капчу на сайтах? - Не нужно. Обработка ( восстановление) повреждённых фото (старинные, чёрно-белые )? Как вариант - интересно, зависит от степени повреждения снимка. Не об этом хочу сказать. Спасибо за пояснения алгоритма работы! Очень интересное видео! P.S. Продолжения ждём. Особенно- применение (интересное ( ознакомительное ), использование) на наших, не супер компьютерах.
@CapitanSuk6 жыл бұрын
Чтобы увидеть на то, как нейросети можно использовать, достаточно посмотреть на DeepHD, на автомобили с автопилотом, например, Tesla, у Яндекса и Гугла тоже есть какие-то наработки, вот уже в России вводят наклейку "А" для техники с автопилотом. А боты уже давно научились расшифровывать капчу, так что здесь им остаётся лишь держать планку.
@СергейПартизанов-н1х6 жыл бұрын
@@CapitanSuk Я всё сказал выше. Мне Tesla- не интересна, и еже с ними... Ещё вопросы, по существу, будут?
@Καιρός-ζ6σ6 жыл бұрын
@@CapitanSuk Боты еще не научились расшифровывать капчу. Есть соответствующие сервисы, в которых капчу расшифровывают индусы в ручном режиме, сидя у себя в Индии и выдавая ответ по линиям связи. Стоимость обработки одной капчи - около 10 центов.
@Καιρός-ζ6σ6 жыл бұрын
@@СергейПартизанов-н1х В этом твоя проблема: ты говоришь "я все сказал выше" и не слушаешь чужих мнений, хотя до этого ты самостоятельно признал, что нихера в предмете не понимаешь. А ведь человек тебе дело может говорить.
@SIM31r6 жыл бұрын
Вот нейросеть прекрасно восстанавливает цвет на старинный ч/б фотках, особенно хорошо когда узнает объекты demos.algorithmia.com/colorize-photos/
@OPKECTPAHT6 жыл бұрын
Я думаю, что нейросети дадут в ближайшие годы новую профессию. Конечно нейросети в начале пишут программисты, но дальше, после написания кода, идёт самое сложное, это обучение сети. И это отдельное кунг-фу. Появится профессия конструктора нейросетей и учителя-тренера нейросетей. Посмею себе дать совет для "лириков", воспринимающих визуальные образы лучше, чем код. Тем кто желает войти в тему, не изучая математики и низкоуровневого программирования посоветую начинать вот тут: playground.tensorflow.org
@Rayvenor6 жыл бұрын
К сожалению я потерял ссылку на какую-то энциклопедию, где про нейрон смещения было написано, что он может обучаться так же, как обычные нейроны. Но вот нашёл другой источник: neurohive.io/ru/osnovy-data-science/osnovy-nejronnyh-setej-algoritmy-obuchenie-funkcii-aktivacii-i-poteri/ Я обучаю нейрон смещения и это дало больший шанс, что сеть начнёт обучаться. Сейчас поздно, потом на свежую голову дополню комментарий как это делаю. На производную умножаю, когда вычисляю ошибку. В моём источнике она называлась Сигма. Но, когда я вычисляю поправку к весам (называлась Дельта), я умножаю на эту Сигму. Я не вижу почему тут вообще может быть два варианта. Дельта считается как умножение скорости обучения на значение нейрона и на Сигму. А Сигма это разность межу желаемым значением, полученным значением нейрона, помноженная на производную.
@foo52ru6 жыл бұрын
Если при расчёте ошибки нейронов сразу не умножать на производную, то ошибка не затухает и может быть распространена на большое количество слоёв. Если сразу умножать на производную, то ошибка быстро затухает и через несколько слоёв может уменьшится до нуля. В большинстве источников описывается второй вариант. Если не делать более двух скрытых слоев, то он прекрасно работает, только коэффициент обучения нужно больший ставить, чем для первого варианта.
@BlYur6 жыл бұрын
Вот ещё одна книга по нейросетям для чайников: «Тадеусевич Р., Боровик Б., Гончаж Т., Леппер Б. Элементарное введение в технологию нейронных сетей с примерами программ, 2011 г.»
@foo52ru6 жыл бұрын
Спасибо.
@DG_nomadАй бұрын
Спасибо большое за интересный ролик
@Profil25796 жыл бұрын
А что за нейрон смещения? Какова его функция? Весь ролик ждал, разъяснения, но так и не услышал =)
@ВасяНосоглотов6 жыл бұрын
Приплюсовывать числа независимо от входных нейронов
@foo52ru6 жыл бұрын
Он сдвигает выходы нейронов в ту или иную сторону в не зависимости от того, что на входе. Проще объяснить на линейном классификаторе. На плоскости нарисованы точки двух цветов, нужно провести прямую линию, разделяющую точки одного цвета от другого (точки расположены так, что это можно сделать с помощью прямой). Есть оси координат х у. Формула прямой у=а*х. Здесь х - входной нейрон, а - это вес связи, с его помощью можно регулировать угол, под которым идет прямая, у - выходной нейрон. Но такая прямая всегда проходит через центр координат и не всегда может разделить точки одного цвета от другого. Если добавить смещение, то мы можем сдвигать прямую вдоль оси координат и выполнить задачу. Формула будет выглядеть уже так: у = а*х + в*1 Где в - это и есть вес связи между нейроном смещения (у него на выходе всегда 1) и выходным нейроном у. В нейросетях тоже самое, только там не прямая, а плоскость сложной формы в многомерном пространстве и с помощью нейрона смещения мы можем сдвигать её. Это облегчает решение задач. Если смещение не нужно для решения задачи, то во время обучения веса, идущие от нейрона смещения, просто обнулятся.
@madeinussr19835 жыл бұрын
15:05 "Сеть проявила хитрожопость..." Люди у себя это называют "интуицией".
@xakkep90006 жыл бұрын
15:06 сеть проявила хитрожопость :D ёрт да это гениально!
@cultofsogga58635 жыл бұрын
Респект за эти видео. Python всё таки облегчил бы жизнь)
@alexeyzhurin10446 жыл бұрын
СПС, Ждёёём второй части. =)
@bvg1296 жыл бұрын
Советую более длинные и информативные названия переменных, хотя бы только для показа в видео. Советую английскую литературу, если есть возможность Советую чуть более быстрый и оживленный темп речи, но это субъективно Советую продолжать заниматься подобным
@FyrenSelvin6 жыл бұрын
Это просто офигенно!
@СергейБелинский-ж5в5 жыл бұрын
Мне нравятся ваши преобразования * материи и времени 🌊🙊
@__asd2 жыл бұрын
7:40 мне кажется, или там должны быть ошибки входящего слоя, а не исходящего? Т.е. правая сторона нейронов должна влиять на эти слои... Или правые и есть выходные?)
@__asd2 жыл бұрын
Судя по тому, что производная тоже правые слои берут, то здесь out подразумевает право, а не лево)))
@__asd2 жыл бұрын
Получилась такая фиксилка ;'-} Надеюсь верно получилась. Чистый Си, да и только. // a - текущий слой нейронов, b - следующий, errs - ошибки следующего void fig_bug(int sa, int sb, float a[sa], float b[sb], float errs[sb], float *weights, float k) { int pos = 0; for (int R = 0; R < sb; R++) for (int L = 0; L < sa; L++) weights[pos++] += k * errs[R] * b[R] * (1 - b[R]) * a[L]; }
@MagicMightNew6 жыл бұрын
На самом деле, как бы парадоксально не звучало для многих, но в нейронных сетях самое простое - математика. Гораздо сложнее понять и подобрать (а еще сложнее составить) правильную основу для обучения более-менее сложной нейронной сети.
@mikhailkuznetsov78135 жыл бұрын
2:00 Подскажите, пожалуйста, где в функции f(e), приведённой в видео, можно взять значение переменной x, которая находится в показатели степени числа e, в знаменателе дроби?
@foo52ru5 жыл бұрын
функция записывается f(x). x - это число, которое передаётся функции. В данном случае - то, что пришло на вход нейрона(сумма входных сигналов). Результат, полученный после применения функции - это выход нейрона.
@avatarcybertronics25846 жыл бұрын
Кто не хочет разбираться в нейросетях, но хочет обучить свою для своих задач без кодинга - есть платформы такие, скажем для текста Graphgrail Ai, грузите туда текст с разметкой и обучаете, на выходе сетка сможет отличать отзывы плохие от хороших на фильмы, определять эмоции, критику, похвалу, в общем всякие тонкие детали смысла
@trueman93635 жыл бұрын
Если как то объединить нейросеть с переменой координат пространства и времени... Сможем ли мы на выходе получить телевизор, показывающий исторические и будущие события, в том числе из паралленльной вселенной? ))) Спасибо за детальное описание нейро сети, всегда было интересно, а времени разобраться не было! Удачи автору в исследованиях!
@cekkush3 жыл бұрын
Огромное спасибо. Думаю автор объясняется то, что делает tenderflow, numpy, но не только.
@emilio88regis5 жыл бұрын
Плюсую за математику! Если заниматься хай-теком, без нее как без рук. Сам страдаю.
@ancubic15496 жыл бұрын
Великолепно, наконец-то понял эти чертовы нейронные сети. И да, лучше пиши на C++, Pixilang это ужс....
@Orakcool6 жыл бұрын
пусть пишет хоть на асме, у него достаточно интересная подача и подход даже к элементарным задачам. Кое что можно взять на вооружение при обучении детей программированию
@ancubic15495 жыл бұрын
@@Orakcool Дети в программировании это плохо в 70% случаев.
@Orakcool5 жыл бұрын
+Eugene Pavlov, откуда статистика? Какая была выборка? Что с остальными 30%? Привожу Ваши-же слова - "Великолепно, наконец-то понял эти чертовы нейронные сети." вот это вот наконец-то могло произойти намного раньше. Что-же в этом плохого?
@mikhaildidur95675 жыл бұрын
4:13 если слоёв больше двух то функцию активации использовать для нейронов каждого слоя?
@foo52ru5 жыл бұрын
да
@ProgrammerForever5 жыл бұрын
Я хоть и физик, но математику уважаю и обожаю.
@KlinovAS6 жыл бұрын
я пытался понять в чем перевес сети. например то что вы показывали вначале ролика я делал методом "гаоса". тоесть, вокруг точки по радиусу собирал цветовые значения и искал таким образом контрастирующие различия. У меня в начале эксперимента получилось в точности тот же ефект который уже есть в фотошоп (Свечение краев). Вначале я усреднял и у меня все было чернобелое, но потом вышло в точности такое же. Наигравшись с коефициентами я получал лучшие результаты. Но в какой-то момент я понял, что человек ищет грани обекта лучше. Мне не давало покоя почему в затемненных участках способность ухудшается. Там не помогает ни умножение ни степень. С помощю фантазии и проб я подобрал необходимую функцию и на много улучшил результат прибавив выделения контраста контуров и уменьшив шум в целом. А дело действительно в цвете (значениях). В среднем диапазоне функция притупливает ощущение, а в ярких и слишком темных я функция обостряет чуствительность к наименьшим изменениям. Таким образом получилось как искусственное усреднение (не так как мы привыкли). Ну а теперь перейдем к распознаванию символов которое я сделал не зная никакой нейросети. Я использовал прямоугольник который может охватить любой символ одного размера, например 14пкс. Дальше я сделал удобные инструменты для обучения. Я вложил символ в полотно и мышкой тыкал в места где линия должна проходить. Каждая моя точка которую я налаживал попадала в список, по которому я мог в любой момент подсветить данную точку. Эта точка также имеет значение по умолчанию 100%, который можно изменить на любое свое значение. Мне достаточно лишь 10 точек чтобы обозначить например цифру "1". На правую кнопку мыши я сделал аналогичный функционал обозначения да только это точки в которых не должно быть никаких цветов. Также по умолчанию 100%. Теперь все правильные ответы суммировались, но с небольшим лишь коефициентом. Любая ошибка (там где нарушено правило) отбирало штрафных балов на много больше чем 10 правильных точек вместе взятых. Это были точки "присутствия". Аналогично с точками "отсутствия". За правильные - плюс, неправильные - жосткий минус. В итоге я получал четкий результат >0 это нужное значения,
@KlinovAS6 жыл бұрын
Отбросим всю сеть. Возьмем только последнюю исходя из твоего видео. Там матрица [4 2]. Получается 4 входа приходят на одну нейронку из 4х и также на другую. А что ж это за функция такая, что говорит правильный результат ?? вот что именно я не понял из нейросети!!! Короче у нас есть X + Y + M + N = S, если S не равно правильный ответ, то что именно менять Х? Y? M? или N? Вот в чем главный вопрос! Оно работает, но ни один академик не даст адекватного ответа КАК! И смотрю вакансии. Одни люди занимаются программированием и делают действительно потрясающие вещи. Например тот же Унриал 4 - это же космос просто. Реальность. А другие типа Гугла и фейсбука дрочат нейросеть, выжимают из нее все соки, короче занимаются херней, игры устраивают у кого сеть быстрей учится. Никто не меняет подход. Зарплаты там улетные, а людишки тупеют, ведь есть нейросеть. А ты мол ведро отстаешь от жизни. Уже ведь Си не в моде, переходи на Пайтон, уже мол PHP не в моде - переходи на NodeJS. А задачи какие? Сверстать сайт? Так разберитесь в чем же перевес NodeJS. Если удержать одновременно миллион соединений - так NodeJS бог. А если просто обычный каталог или поисковик, то снова же мучаются все на NodeJS. Как оказывается бог лажает, мол вылетает где-то память. Ну дебилам этого не объяснишь. Главное что язык в тренде))))
@KlinovAS6 жыл бұрын
Кстате я не только занимался распознаванием картинки без нейросети. Я также сделал программу которая ищет дубликат музыки. Также не использовал нейросеть. Мои результаты на столько хороши, что программа находит минус (фонограмму) и оригинал. Вот только если изменить темп, то тогда распознавание уже не будет работать. В целом из 160Гб музыки на поиск приходится только 1-2 секунды за счет оптимизации. Ведь каждый трек сканировался и в базу сохраненная только упрощенная 1Кб формула. А если бы я разложил музыку на Фурье, то скорее всего бы мог найти трек даже по небольшому кусочку. И зачем же все это нужно было мне? Просто я сделал лет так 10 назад музыкальный аппарат (есть видео на канале) в который бросаешь 50 монет и можно заказать музыку. Столкнулся с проблемой "где искать новую музыку и хорошо отсортировать". В итоге пришлось еще и с текстами поработать. Тут тоже своего рода обучение. Но никакой нейро сети не использовал. Обычная база данных. Слои важности. Один слой говорит о важности, другой о неважности, последний решает в целом, есть база отдельная исключений. В общем если бы я учил сетку, то мне бы пришлось ее учить десятки лет и просиживать тысячи часов. А с программой я посидел упорно три месяца. Я подобрался к текстам очень близько. Но когда пошла прибыль я просто переключился на заказы. А так мне хотелось скормить законы Украины, чтоб программа могла отвечать на простые поставленные человеком вопросы. Чтоб перебирались все синонимы и вообще это язык абстракций, когда несколько слов = одному значению в одной баз, еще больше слов = также одному значению в другой базе и т.д. Именно так Anny L0rrak = Ані Лорак, ctas mixaylov = Стас Михайлов. Явное обучения всегда быстрей нейросети. Чтобы понять следующее действие нужно учитывать два предыдущих - у нас получится линейная функция. Это ведь очень просто. Не так ли? Но нейросетка будет тысяча раз вертеть в разные стороны руль автомобиля пока поймет что влево это влево. Вот и все различия. Кто-то громко нашумел и все подумали, что мы поняли как все устроенно. Даже нейрохирург-программист ученый признал, что мозг работает по другому. Похоже, но по другому. В мозге все сохраняется во множество мест. Это подобно уже квантовому процессору. А отпечаток действительно напоминает нейросеть. Но если бы у вас был квантовый компютер в каждого дома, то не проблема - я бы даже ничего не писал. Мучайте сеть сколько хочется. А они и так уже используют все компы под видом криптовалюты и толк очень невелик. Уперлись в стену и одни только эксперименты.