Персептрон - возможности классификации образов, задача XOR | #2 нейросети на Python

  Рет қаралды 135,745

selfedu

selfedu

Күн бұрын

Классификация линейно-разделимых образов с помощью персептрона на одном нейроне. Понятие биаса (bias) - порогового смещения. Различение нелинейно-разделимых образов (задача XOR) с помощью трехслойной нейронной сети.
Телеграм-канал: t.me/machine_l...
Инфо-сайт: proproprogs.ru
lesson 2_1.py, lesson 2_2.py, lesson 2_3.py: github.com/sel...

Пікірлер: 251
@ЭльдарДевликамов-ю5р
@ЭльдарДевликамов-ю5р 4 жыл бұрын
Редкая удача - наткнуться на такой канал. Автору спасибо!
@Sweet_Bibaleh
@Sweet_Bibaleh 4 жыл бұрын
Он преподаёт в университете)
@lubovd5335
@lubovd5335 3 жыл бұрын
@@Sweet_Bibaleh Это заметно :-)
@mister_darth_vader
@mister_darth_vader 2 ай бұрын
@@Sweet_Bibaleh В каком ? мне интересно
@nikitaegle5533
@nikitaegle5533 3 жыл бұрын
Смотрю на превью, где написано 6+, и начинаю бояться за тех детей, которые случайно нажали на это видео
@selfedu_rus
@selfedu_rus 3 жыл бұрын
=)
@евгенийбогданов-щ1б
@евгенийбогданов-щ1б 3 жыл бұрын
@@selfedu_rus почему мне тогда 14 и я ничего не понимаю( (знаю, что нужно высшую математику знать)
@ozz3549
@ozz3549 3 жыл бұрын
@@евгенийбогданов-щ1б тут нет высшей математики
@monacci
@monacci 3 жыл бұрын
@@евгенийбогданов-щ1б потому что не вникаешь, и не знаешь базовый основ машинного обучения
@WitcherCoin
@WitcherCoin 2 жыл бұрын
@@евгенийбогданов-щ1б мне 15, всё понятно, если вникать.
@Физикаматематикаиинженерноедел
@Физикаматематикаиинженерноедел 4 жыл бұрын
Невероятный уровень объяснения)) круто
@andreyjustandreyoff
@andreyjustandreyoff 8 ай бұрын
Это максимально офигенно, 3 года назад было выложено видео, а я смотрю это в 2024 году и все понимаю!
@АсяХаликова-в7б
@АсяХаликова-в7б 3 жыл бұрын
Дар преподавания! После двух изученных плейлистов по основам Питона и ООП начала этот курс видео. Восхищена!
@cerpanovmita77Cher
@cerpanovmita77Cher 6 ай бұрын
Привет! Как успехи? К чему пришла за 3 года?
@ВНе-р4з
@ВНе-р4з 5 ай бұрын
Шикарно, только есть совет всем тем кто слушает. Стоит пересмотреть видео несколько раз, это обязательно, вам может показаться что вы все поняли, но это не так. На самом деле понимать вы начнёте где-то с 5го повтора видео, и это не потому что плохо объясняют, а из-за реальной сложности этой темя
@УголокКодера
@УголокКодера 4 жыл бұрын
Такие каналы как ваш, достойны намного большего количества подписчиков. Круто объясняешь!
@CalmVideo
@CalmVideo 2 жыл бұрын
Начиная со 2 серии мозг кипит. Сколько не смотрю разные видео - не понимаю Но объяснения в этом видео мне нравятся
@MathPTU
@MathPTU Ай бұрын
а что непонятного?
@СергейКондулуков-з9ч
@СергейКондулуков-з9ч Жыл бұрын
Сергей здравствуйте. С удовольствием занимаюсь по вашему бесплатному курсу по Python на Степик. Не всё конечно получается с первого раза, но как говорится Упорство и Труд всё перетрут. На комментарии внутри курса где рекламируются другие курсы не особенно обращайте внимания. Как говорится Собака лает. Караван идёт. Да и про конкуренцию тоже не забывайте 🙂 Пример с семейством, которое переезжает в другой район обязательно сделаю. Просто шестерёнки ещё скрипят. Большое спасибо за хороший курс по Python. С уважением С. Кондулуков.
@mistrebrown7642
@mistrebrown7642 4 жыл бұрын
Супер! И ещё пара слов для продвижения канала в ютубе
@escozoonv
@escozoonv 3 жыл бұрын
Смотрю второе видео и хотел написать что вам бы преподавать, а вы оказывается уже) Спасибо за уроки, подписался
@KromlechKannabikus
@KromlechKannabikus 2 жыл бұрын
Даже такой отъявленный гуманитарий как я, смог понять многие вещи после такого объяснения. Благодарю за труд!
@romastep6576
@romastep6576 3 жыл бұрын
И снова добра, счастья, удачи и здоровья тебе Человечище👍😁
@hfhfhffjf
@hfhfhffjf 2 жыл бұрын
Поступил в магистратуру на IT как вторая специальность... На паре глаза были по пять копеек. Но с вашим видео стало определенно понятнее! Спасибо!
@a-rg1tj
@a-rg1tj Жыл бұрын
Та же история
@dmitrelkin9256
@dmitrelkin9256 3 жыл бұрын
Лектор уровня "Бог". Вспоминается Р. Фейнман с его принципом объяснять сложные вещи простыми словами. Смотрю лекции канала, разрываюсь между несколькими плейлистами, уже опух, но все равно интересно )) Первый раз встретил внятное и очень простое объяснение "разделяющей прямой". Спасиба!
@selfedu_rus
@selfedu_rus 3 жыл бұрын
Спасибо за такое лестное сравнение с самим Фейнманом! ))
@dmitrelkin9256
@dmitrelkin9256 3 жыл бұрын
@@selfedu_rus подозреваю, что понятие разделяющей гиперплоскости выводится таким же образом как и разделяющей прямой?
@selfedu_rus
@selfedu_rus 3 жыл бұрын
@@dmitrelkin9256 да, именно так!
@unstablebunny6572
@unstablebunny6572 3 жыл бұрын
очень крутые видео. жаль, что не нашел ваш канал раньше
@__-pq1nt
@__-pq1nt 2 жыл бұрын
Спасибо вам большое. Нейронные сети - сложная тема, а вы так легко и доступно объясняете её. Конечно есть пара непонятных моментов, но в ходе изучения нейронных сете они буду разобраны, ну, я надеюсь на это
@uselslip
@uselslip 6 ай бұрын
Очень крутые уроки, только начал смотреть надеюсь дойду до конца и научусь сам их писать
@АндрейМалахов-т9м
@АндрейМалахов-т9м 4 жыл бұрын
Спасибо что Ютуб показ в поиске ваше видео. Очень качественно и понятно. Лайк + подписка + хороший комментарий. Продолжайте в том же духе
@Mr.Mar_ad
@Mr.Mar_ad Жыл бұрын
курс просто невероятно полезный, спасибо!
@leomysky
@leomysky 3 жыл бұрын
Просто какой-то невероятный канал, спасибо
@СарматПересветов
@СарматПересветов 3 ай бұрын
Ну на самом деле, если не плохие знания, то покачто все просто. Смотрю с телефона, но когда приду домой попробую все сам реализовать. Спасибо!
@mtiv4636
@mtiv4636 2 жыл бұрын
спасибо огромное! вы очень хорошо объясняете, буду и дальше вас смотреть.
@leonidpopov5965
@leonidpopov5965 3 жыл бұрын
Спасибо вам огромное за такие понятные и логичные объяснения!
@pasha5584
@pasha5584 2 жыл бұрын
Да как же круто! И о сложном и простое объяснение. А то слушаешь некоторые курсы и кровь из ушей идет - такую дичь толкают. Только возможно не всем понятно что за гиперплоскость, хотя концепция важная.
@reabstractor
@reabstractor 3 жыл бұрын
Гениально! Теперь я понял всю суть. Благодарю!
@ViktorKataev
@ViktorKataev 5 ай бұрын
Спасибо! Отличные уроки!
@ИванКруткевич
@ИванКруткевич Жыл бұрын
Тэээкс хорошо, теперь осталось только узнать зачем это нужно!
@ViktorKataev
@ViktorKataev 5 ай бұрын
Шедеврально!
@kardonov
@kardonov 3 жыл бұрын
Автор добился невозможного, я понял принцип работы персептрона 😁
@realypotato7270
@realypotato7270 4 жыл бұрын
Хорошее видео для старта изучения машинного обучения. Жду видео о обновления весов, ADALINE, градиентном спуске, переобучение, недообучение и библиотек для работы с нейросетями
@maksutaatuskam860
@maksutaatuskam860 3 жыл бұрын
Спасибо, жаль что у такого канала так мало подписоты
@ВикторСороколетов
@ВикторСороколетов Жыл бұрын
Автор привет делаешь супер контент смотрю с удовольствием, хотя вот моменты который хотел бы что бы показал, а точнее алготюритм индекстрон, а так же q learning
@Батал-щ1ж
@Батал-щ1ж 2 жыл бұрын
я ставлю лайк видео когда понял его , так что после пересмотров)😄
@eerieevilelf
@eerieevilelf 3 жыл бұрын
Спасибо вам огромное за подробные и понятные видео! Не могли бы вы ещё пожалуйста чуть подробнее пояснить, когда вы на 15:55 говорите, что мы для надёжности всё смещаем на -0,5, зачем мы это делаем? В чём заключается надёжность, почему это лучше чем 0/1/0?
@selfedu_rus
@selfedu_rus 3 жыл бұрын
Мы смещаем границу, чтобы расстояния от классов образов было наибольшим. Это увеличивает обобщающие сопосбности сети и уменьшает число ошибок при эксплуатации.
@yporotxx
@yporotxx 3 жыл бұрын
Ваш курс: Я что-то понимаю, но всё равно какая-то магия с тем, как он даёт правильные ответы; Другие курсы: Ну нейронная сеть это нейроны и да они умеют общаться друг с другом, ну а в целом вот код, смотрите она работает БИНГО
@selfedu_rus
@selfedu_rus 3 жыл бұрын
Для понимания только математика, без нее - никак! )
@АндрейКоваленко-о5е
@АндрейКоваленко-о5е 3 жыл бұрын
топ объяснение темы, спасибо!
@РоманГиматдинов-п8л
@РоманГиматдинов-п8л 3 жыл бұрын
Небольшое дополнение, значения на разделяющей прямой будут входить область значений одного из классов
@Bravekostya
@Bravekostya 4 ай бұрын
появляется чувство, что я (судя по комментариям)- единственный, кто не может с первого раза разобраться в видеоролике...
@laser3453
@laser3453 3 ай бұрын
А как ты думал, на фоне включить и всё понять невозможно. Смотри внимательно, делай паузы, обдумывай идеи, о которых тебе говорят. Попробуй переписать код из видео, посмотреть, какая строка за что отвечает, попробуй его немного изменить. Можно посмотреть ролик несколько раз. Это не такая уж и простая тема.
@hemenguelbindi3888
@hemenguelbindi3888 3 жыл бұрын
Огромное спасибо автору.
@ВикторЧеботарь-з2в
@ВикторЧеботарь-з2в Жыл бұрын
Спасибо за урок
@ashimov1970
@ashimov1970 4 ай бұрын
отличные видео. П.С. не биас, а байес, и не порог а так как ты сам изначально обозвал - смещение (сдвиг). порог на английском - threshold
@jp2en
@jp2en 4 ай бұрын
образы распределены в диапазоне МЕЖДУ 0 и 1, по этому... будем полагать, что на вход функции подается либо 0, либо 1... это ГЕНИАЛЬНО!!!
@vivacuba1990
@vivacuba1990 3 жыл бұрын
Хороший канал. Подписка...
@ЮрийСтаростин-я1щ
@ЮрийСтаростин-я1щ 11 ай бұрын
Работает на pycharm : надо импорт библиотек? !: есть кнопка install сбоку справа (раздел рядом с терминалом): выбрать библиотеку (напечатать название биоблиотеки), жать на кнопку. Удобный импорт библиотек на pycharm.
@РоманГаврилов-п5п
@РоманГаврилов-п5п Жыл бұрын
Добрый день. восхитительное видео, но не понятно одно: что произошло в строке 18? Что такое образы класса? и каким образом мы их перебрали? что означают те квадратные скобки?
@laser3453
@laser3453 3 ай бұрын
Я сам долго тупил, но в итоге понял, что это такое. В общем, у нас есть некие объекты, которые можно охарактеризовать двумя числами. Пусть первое число - x1, второе число - x2. Задача нейронной сети заключается в классификации двух объектов по этим характеристикам. Вот эти самые числа и называются образами. А так как количество чисел равно 2, их можно изобразить на плоскости в виде точек. Если бы их было 3, можно было бы изобразить в пространстве, тогда разделяла бы их плоскость, а не прямая. Если больше, то уже начинаются многомерные пространства, разделителями будут гиперплоскости. Представить себе такую картину невозможно, но это работает. К примеру, когда мы классифицируем рукописные цифры из датасета MNIST, там в ход вступают 784-мерные пространства, так как каждый нейрон входного слоя получает на вход одно из чисел, а числа являются значениями конкретных пикселей на изображении.
@lisay7395
@lisay7395 2 жыл бұрын
Ето то что я искал
@eng9507
@eng9507 10 ай бұрын
Начинаю смотреть этот плейлист в 10 классе, хочу связать свою жизнь с машинным обученим по возможности, вот сижу и пытаюсь понять все эти формулы и разделяющие прямые на графиках, голова кипит, но я пытаюсь уложить это в ней.
@selfedu_rus
@selfedu_rus 10 ай бұрын
Не знаю как это зайдет 10-ти класснику, но лучше начинать с плейлиста "Основы машинного обучения". Успехов!
@eng9507
@eng9507 10 ай бұрын
@@selfedu_rus спасибо, скорее всего послушаю ваш совет
@lubovd5335
@lubovd5335 3 жыл бұрын
02:44, На графике не правильно изображена прямая. Прямая должна проходить через 2и 4 квадранты, поскольку коэффициент перед аргументом функции отрицательный! Прямая должна идти из левого верхнего угла в правый нижний угол.
@selfedu_rus
@selfedu_rus 3 жыл бұрын
А если один из весов w отрицательный? А такая прямая нарисована как общий случай - ее поворот может быть любым!
@nedokormysh
@nedokormysh Жыл бұрын
Чего-то совсем завис со смещением в выходном нейроне. Если судить по картинкам мы верный результат должны получать и без смещения. Отсюда и неясность для чего мы вообще делаем это смещение. Если же разбираться в цифрах, то пусть подаём на вход (0, 0) - левый нижний угол. То получаем в выходном нейроне умножение веса [-1, 1, -0.5] на вектор out = [0, 0, 1]. [0, 0, 1] - единицу в конец мы добавили в этот вектор, потому что у нас есть связь третьего входа с выходным нейроном? Умножаем и получаем -0.5 - подаём в функцию активации - получаем верный ответ. Но это только лишь за счёт смещения. А если бы мы отрицательное смещение не подавали было бы [-1, 1, 1] на [0, 0, 1]. В результате на вход активационной функции подавалась бы единица, и определяется неверный класс. А если бы у нас не было связи третьего входа с выходным нейроном, то нам бы не пришлось выставлять отрицательный вес? Т.е. мы как будто бы отрицательным -0.5 смещением компенсируем 1, которую задаём от третьего входа, который у нас появляется для учёта смещения. Если, конечно, я это уловил верно.
@daniilk3737
@daniilk3737 4 ай бұрын
спасибо за материал. правильно понимаю, что в 1ой задаче разделительная прямая может быть разная (по наклону и направлению) или это "классическая" где всё именно так? значения на вход нейроны имеют только 0 и 1 , и весовых коэф.-ов от -1 до 1 или они могут иметь любые значения в зависимости от задачи и подхода?
@vervol1490
@vervol1490 8 ай бұрын
Прошу прошения но вдруг кому пригодиться визуализация Задачи XOR lesson 2_3.py: import numpy as np import random import matplotlib.pyplot as plt def act(x): return 0 if x
@Dmitrii-Zhinzhilov
@Dmitrii-Zhinzhilov Жыл бұрын
Круто! Благодарю!!! 🔥👍💯
@DaniilMusin
@DaniilMusin 3 жыл бұрын
огонь, спасибо!
@ОлегЗорин-и8ч
@ОлегЗорин-и8ч Жыл бұрын
При х1=2 и х2=0; w1=0.5 и w2=1 получаем точку с координатами (1;0), она лежит на оси х1 и принадлежит С1 (положительный диапазон значений ф-ии). Но судя по рисунку на 2,49 нинуте должна принадлежать С2 (отрицательный диапазон). Или я ошибаюсь?
@freshmen5491
@freshmen5491 4 жыл бұрын
Не чего не понял, нооо очень интересно 😁
@megistone
@megistone 2 жыл бұрын
Здравствуйте, учу по книжке Ян Гудденфлоу - Глубокое обучение, и не понял, почему функция активации именно такая, почему не другая какая-то? Например сигмоида или ReLU max(0, x). Как её правильно выбрать?
@ifredis
@ifredis 3 жыл бұрын
Респект
@ForMotherRussia1
@ForMotherRussia1 2 жыл бұрын
Пока вообще ничего непонятно, но очень интересно)
@WitcherCoin
@WitcherCoin 2 жыл бұрын
А почему на канале до сих пор только 50к подписчиков? Наверно потому, что контент не самый простой на ютубе)
@vasiliykozlov13
@vasiliykozlov13 10 ай бұрын
Правильно ли я понимаю, что так нейросеть может распознавать изображения? То есть на графике множество точек - это некие опорные точки изображения, мы составляем подходящую нейронную сеть с необходимым количеством нейронов и слоев и через функции активации она определяет, что изображено на изображении?
@_Mirius_
@_Mirius_ 10 ай бұрын
В первом примере после С1 = [x1, x2], вызывается х1 = np.random.random(N) Не поменяется ли значение х1 внутри С1 после этого? И с х2 так же
@selfedu_rus
@selfedu_rus 10 ай бұрын
нет, см. базу по Python
@G-kw3332
@G-kw3332 9 ай бұрын
x1 это всего-лишь ссылка на np.random.random(N)
@takiekakmi7532
@takiekakmi7532 2 жыл бұрын
Нифига не понятно, но очень интересно. Нужно подтянуть сначала математику по ходу😪
@_sort_
@_sort_ Жыл бұрын
Не понятно зачем столько заморочек на задаче xor. Когда на википедие есть модель в целом такая же, но чуть проще и понятнее, и другими весами. Но ваше объяснение также хорошо изложено и является более полным.) Но боюсь для новых людей оно слишком запутанно выглядит.
@jamjam3337
@jamjam3337 9 ай бұрын
👏👍
@СержСандрян
@СержСандрян Жыл бұрын
Спасибо
@АлексейКокуренков
@АлексейКокуренков Жыл бұрын
когда мы находим веса не очень понятно, почему на вспомагательных графиках для нужной нам области то 1, то 0
@selfedu_rus
@selfedu_rus Жыл бұрын
это как бы биты, они могут быть 1 или 0
@radacom
@radacom Жыл бұрын
Я девочка. Можно еще раз на пальцах обьяснить - с красивым гитаристом на яхте?😂😂😂
@no7....925
@no7....925 3 жыл бұрын
супер
@alexeypriw4085
@alexeypriw4085 8 ай бұрын
там еще мафон нужен был касетный чтоб частоту резонатора регулировать пока комп не поймет)
@monacci
@monacci 3 жыл бұрын
Здравствуйте. Спасибо за ваш курс. Не знаю, досмотрю или нет
@rtu_karaidel115
@rtu_karaidel115 Жыл бұрын
На выходном слое нейронов поступает именно вероятность той или иной категории!
@selfedu_rus
@selfedu_rus Жыл бұрын
не согласен, выходной сигнал как вероятность можно интерпретировать только при логистической функции потерь (см. курс по машинному обучению)
@rtu_karaidel115
@rtu_karaidel115 Жыл бұрын
@@selfedu_rusДа , машинное обучение только планировал посмотреть , посмотрю оценю суждение. Так или иначе , спасибо за столь качественный контент!
@magadan4626
@magadan4626 2 жыл бұрын
Почему X2 = 1 * X1 это прямая проходящая через 0 под углом 45 гр.?
@selfedu_rus
@selfedu_rus 2 жыл бұрын
x2 = y, x1 = x => y = x
@Dimofey
@Dimofey Жыл бұрын
Было бы неплохо установить таймкоды на ролики. Тема не самая простая, иногда хочется иметь быстрый доступ к тому или иному отрывку.
@alexeypriw4085
@alexeypriw4085 8 ай бұрын
да ты реально с Альфо-Цинтавры) и пофиг что неправильно пишу)
@dantealighiery8455
@dantealighiery8455 Жыл бұрын
Автор-гений! Но судя по всему без знания математики , лезть смысла нет(((
@МихаБорисов-с4н
@МихаБорисов-с4н 3 жыл бұрын
Всё круто, но так как я не шарю в графиках и математике и я НОВИЧОК в программировании и у меня проблемы с matplotlib и последней версией numpy, я повторял всё описанное целый день. И этот день мне показался адом. Автор молодец, это я тупой.
@selfedu_rus
@selfedu_rus 3 жыл бұрын
спасибо, дорогу осилит идущий! )
@nikitakolchanov350
@nikitakolchanov350 Жыл бұрын
Спасибо большое ❤. Есть вопросик, когда мы выбирали смешение bias, то почему в коде на python мы взяли 1, а не 1.5 и 0.5?
@selfedu_rus
@selfedu_rus Жыл бұрын
можно и другие величины, это как пример
@leylamehtiyeva6451
@leylamehtiyeva6451 Жыл бұрын
Кто не понял для чего нужен f = [0, 1]. 0 - bias (смещение прямой наверх или вниз) 1 - угол наклона (если он отрицательный, то прямая направлена в другую сторону) Таким образом это значения коэффициентов уравнения прямой b и k соответственно в уравнении y = k*x + b
@tryhardery
@tryhardery Жыл бұрын
Это нужно для немного другого) Чтобы построить прямую y = x в матплотлиб
@Rusia-16
@Rusia-16 Жыл бұрын
А почему мы для С1 не добавили смещение +0,1 ? Что бы все точки были выше прямой.
@selfedu_rus
@selfedu_rus Жыл бұрын
метку времени укажите, я ж на память все это не помню где что было ))
@Rusia-16
@Rusia-16 Жыл бұрын
@@selfedu_rus kzbin.info/www/bejne/qmq0l5Z8g9B6a5o
@selfedu_rus
@selfedu_rus Жыл бұрын
@@Rusia-16 это мы просто так генерируем множество точек для второго класса C2, чтобы они отличались от точек класса C1, вот и все
@maxli2134
@maxli2134 3 жыл бұрын
hello, at 4:27, why do we use np.random.randint(10)/10 ?
@aleksandrdontsu8948
@aleksandrdontsu8948 3 жыл бұрын
to get a number between 0 and 1
@Web3Day
@Web3Day 3 жыл бұрын
А где информацию поискать про графики? Какой раздел алгебры посмотреть? Совсем не понимаю как из математического уравнения можно построить график. Тем более из уравнения где все неизвестные. А так лайк тебе и вот длинный коммент.
@pinochet8108
@pinochet8108 3 жыл бұрын
уравнение прямой y=kx+b это где-то 7й класс алгебры
@Web3Day
@Web3Day 3 жыл бұрын
@@pinochet8108 спасибо, я думал другая магия
@KrasenDayZ
@KrasenDayZ 5 ай бұрын
А что значат входные данные для класса 1 и 2 тоесть 1, 0 и 0, 1 для первого и 0, 0 и 1, 1 для второго?
@WitcherCoin
@WitcherCoin 2 жыл бұрын
Посоветуйте пожалуйста книгу(или книги) про ИИ. Хотелось бы чтоб были примеры на python.
@selfedu_rus
@selfedu_rus 2 жыл бұрын
С примерами они не очень )) Если с уровнем математики, то лучшая, на мой взгляд, среди русскоязычных - это С. Николенко "Глубокое обучение".
@WitcherCoin
@WitcherCoin 2 жыл бұрын
@@selfedu_rus спасибо)
@maxli2134
@maxli2134 3 жыл бұрын
если в первом примере всять весы 0.3 и -0.3 место -0.3 и 0.3, то тогда класификатция будет работать на оборот: точки С2 будут классифицированные как С1. Надо обязательно чтобы имено первый весовой коефицент был отрецательный?
@user-oy7vn6mk1t
@user-oy7vn6mk1t 3 жыл бұрын
А как сделать круг? Вот к примеру в круга и на нём это клас С1, а все что снаружи С2.
@user-oy7vn6mk1t
@user-oy7vn6mk1t 3 жыл бұрын
Смотри: когда ты меняешь минус на плюс как ты это сказал, то значение k=(-w1)/w2 не поменяется. То-есть по логике программа не должна ломаться, но прикол в том что меняя эти две штуки на нейронах, они станут хранить в себе другие данные. Из-за этого на выходе с нейронов тоже поменяются знаки. Ну ок, знаки на нейронах поменялись и что дальше? Значение k всеравно будет = 1. И чё? Почему все поламалось? Проблема в том, что на весах ты поменял знаки, и на нейронах останутся суммы с другими знаками. Когда эта сумма будет идти к выходу, она умножится на другие весы, но на этих весах которые стоят у самого выхода ты знаки НЕ ПОМЕНЯЛ! А они там были тоже разные. В итоге раз ты не поменял знаки, то в ответе получится та самая сумма с не правилным знаком. Из-за не правильного знака нейронная сеть класифицирует точку (допустим) как С1, но должна была сказать что это С2! Просто ты на одних весах знаки поменял, а на конечных весах не знал что тоже надо поменять. В итоге у тебя ответ наоборот получился. То-есть ты можешь поменять местами минус и плюс перед нейронами, но после нейронов тоже надо поменять!
@kirilllevin5372
@kirilllevin5372 2 жыл бұрын
@@user-oy7vn6mk1t вы имеете ввиду знаки равенства в функции активации?
@user-oy7vn6mk1t
@user-oy7vn6mk1t 2 жыл бұрын
@@kirilllevin5372 Я не знаю как вам ответить. Забросил изучение нейросетей. Подумал "Ну щас перечитаю, вспомню что написал и объясню", но фиг там. Я нишиши не понял что писал))) Как же легко все забылось
@dubinin_s
@dubinin_s 4 жыл бұрын
У меня вопрос. Вы к выходным значениям нейронов, в последнем примере, прибавляете пороговое смещение и применяете функцию активации, разве в результате у Вас не получается еще один слой нейронов состоящий из одного нейрона? И как следствие эта схема превращается в нейронную сеть с двумя скрытыми слоями.
@selfedu_rus
@selfedu_rus 4 жыл бұрын
Это и есть работа нейрона: он к полученной сумме (вместе с bias (смещением)) применяет функцию активации. Полученное значение - это выход последнего нейрона. В результате, у нас всего 3 слоя: входной, скрытый и выходной.
@dubinin_s
@dubinin_s 4 жыл бұрын
@@selfedu_rus Точно, про выходной слой забыл, нужно внимательнее смотреть ваши ролики))
@KrasenDayZ
@KrasenDayZ 5 ай бұрын
не понял почему -b если мы плюсуем все значения и получаем правильный результат
@arturbrynzak7468
@arturbrynzak7468 3 жыл бұрын
Кто ты о достойнейший? Преподаешь ли ты где то? Поучиться захотелось даже
@andreibeliak9725
@andreibeliak9725 Жыл бұрын
bias [ˈbīəs] - байас - не "биас"
@VanFlek
@VanFlek 4 жыл бұрын
Спасибо! Скажите пожалуйста , а почему для корректной классификации k должен быть равен единице?
@selfedu_rus
@selfedu_rus 4 жыл бұрын
Просто я так расположил образы, что они разделяются прямой с угловым коэффициентом k=1. Вполне могут быть другие варианты, например, с k = -1 и т.п.
@VanFlek
@VanFlek 4 жыл бұрын
selfedu спасибо
@id-4
@id-4 Жыл бұрын
16:11 а нельзя это сделать без нейрона смещения? Например, изменив активирующую функцию. Или из-за этого дольше обучаться будет?
@selfedu_rus
@selfedu_rus Жыл бұрын
"нейрон смещения" - это новый термин? )) смещение - один из входов и его заменить чем-либо другим нельзя и он нужен обязательно
@lubovd5335
@lubovd5335 3 жыл бұрын
16:16, Откуда взялась -1 на верхнем входе выходного нейрона, ведь активационная функция предыдущего нейрона выдает только 0 и 1 ???
@selfedu_rus
@selfedu_rus 3 жыл бұрын
Это вес связи, а не выходное значение нейрона.
@OOOJohnJ
@OOOJohnJ Жыл бұрын
А с помощью сигмоидной активационной функции задачу обучения решить возможно? У меня нейронка упорно выходит на среднюю ошибку
@ТИПАМОЩНЫЙНИКНЕЙМ
@ТИПАМОЩНЫЙНИКНЕЙМ Жыл бұрын
Здравствуйте. Не могли бы вы мне помочь с секцией видео со смещением. Я пробовал умножать матрицы с омега 3 внутри, но всегда получается отрицательный результат.
@selfedu_rus
@selfedu_rus Жыл бұрын
Это в телегам-канал по машинному обучению (ссылка под видео).
@РодионовМихаил-т3с
@РодионовМихаил-т3с 3 жыл бұрын
Спасибо за объяснение. Скажите пожалуйста, а как быть в случае, если у нас кол-во С больше чем 2, например 5?
@selfedu_rus
@selfedu_rus 3 жыл бұрын
Создается несколько разделяющих гиперплоскостей
@JluMoSHa
@JluMoSHa 3 жыл бұрын
​ @selfedu Значит, нейронов второго слоя будет уже 5?
@selfedu_rus
@selfedu_rus 3 жыл бұрын
@@JluMoSHa Если хотите, чтобы сеть на выходе выдавала классы принадлежности для входного наблюдения, то да, на выходе делаете 5 нейронов, обычно, с функцией активации softmax.
@hh_english
@hh_english 3 жыл бұрын
День добрый! :-) На 8-28, почему мы выразили смещение как негативное отношение омега 3 к омега 2? Потому что так захотели? Омега три всегда домножается на единицу, то есть омега три и есть смещение? Почему мы решили связать его со вторым весом (омегой 2)?
@selfedu_rus
@selfedu_rus 3 жыл бұрын
y = 0 = x1*w1+x2*w2+x3*w3 из этой формулы все и вытекает
@hh_english
@hh_english 3 жыл бұрын
@@selfedu_rus спасибо, буду думать)
@hh_english
@hh_english 3 жыл бұрын
Подумал, дошло) Другой вопрос: здесь у нас веса омега 1 и омега 2 равны в абсолютном выражении, отличается лишь знак. Поэтому при построении функции линии через x1 = ... или через х2 = ... не влияет на угловой коэффициент. Однако если омега 1 и 2 будут иметь разные значения, скажем 2 и 3, то угловой коэффициент будет 2/3 и 3/2, разделяющие линии будут разными. Это значит...ммм обе подойдут? Или нужно всегда выражать через х2 - почему?
@selfedu_rus
@selfedu_rus 3 жыл бұрын
@@hh_english Это был лишь пример, когда нужно разделить два класса образов линией с угловым коэффициентом k = 1. Поэтому и веса эти одинаковы. В общем случае, конечно, они будут разными и это определяется в процессе обучения НС.
@hh_english
@hh_english 3 жыл бұрын
@@selfedu_rus спасибо!
@shooobaa
@shooobaa 2 жыл бұрын
я ничего не понимаю, надо математика заново учить ???
@дмитрийм-т1п
@дмитрийм-т1п 7 ай бұрын
неплохоб примера из жизни добавить как в прошлых уроках , например нак по пяти признакам отличить мужика от телки
@user-oy7vn6mk1t
@user-oy7vn6mk1t 3 жыл бұрын
А если у меня будет круг а не линия? Видео топ, но мало примеров если честно. Вот пусть класс С1 это точки в круге, а С2 это снаружи и на линии круга. Что тогда?
@selfedu_rus
@selfedu_rus 3 жыл бұрын
Это "добивается" нелинейными функциями активаций нейронов. Обычно, для универсальности выбирают единую функцию активации для одного слоя и обучают (подбирают веса) так, чтобы разделяющая гиперплоскость описывала этот самый круг. Также, дополнительно, можно проводить предобработку наблюдений, чтобы нейросети было проще их классифицировать. Это задача выделения вторичных признаков из исходных данных. А вообще, универсальных рецептов не существует и каждая конкретная задача - это творчество.
@cnota69
@cnota69 3 жыл бұрын
1:42 а может быть С3? Можно ли сделать? w1x1+w2x2 > 0 --> C1 w1x1+w2x2 = 0 --> C2 w1x1+w2x2 < 0 --> C3
@__-pq1nt
@__-pq1nt 2 жыл бұрын
можно, но это не имеет смысла. В С2 попасть даже за 1000 попыток будет сложно
Incredible: Teacher builds airplane to teach kids behavior! #shorts
00:32
Fabiosa Stories
Рет қаралды 11 МЛН
哈哈大家为了进去也是想尽办法!#火影忍者 #佐助 #家庭
00:33
Решаю простые задачки на Python с сайта Codewars
13:44
Клуб дедов-программистов
Рет қаралды 454 М.
Нейронные сети за 10 минут
9:56
Дмитрий Коробченко
Рет қаралды 117 М.
[DeepLearning | видео 1] Что же такое нейронная сеть?
19:00
3Blue1Brown translated by Sciberia
Рет қаралды 795 М.
CI/CD - Простым языком на понятном примере
15:29
Артём Шумейко
Рет қаралды 51 М.
Твоя ПЕРВАЯ НЕЙРОСЕТЬ на Python с нуля! | За 10 минут :3
18:31
Хауди Хо™ - Просто о мире IT!
Рет қаралды 260 М.
Incredible: Teacher builds airplane to teach kids behavior! #shorts
00:32
Fabiosa Stories
Рет қаралды 11 МЛН