Лекция 1. Нейронные сети. Теоретические результаты

  Рет қаралды 151,185

Computer Science Center

Computer Science Center

Күн бұрын

Модель нейрона. Активационная функция. Сети прямого распространения. Архитектура нейронной сети. Коннективизм. Обучение нейронной сети. Обратное распространение ошибки. Метод скорейшего спуска. Эпохи и batch'и. Инициализация нейронной сети. Пример: задача Обучающее или. Библиотека Neuralnet. Пороговое значение.
Лекция №1 в курсе "Анализ данных на R в примерах и задачах, часть 2" (весна 2017).
Преподаватель курса: Вадим Леонардович Аббакумов
Страница лекции на сайте CS центра: goo.gl/JH1KPD
Лекции курса по порядку: • Лекция 1. Нейронные се...

Пікірлер: 178
@ВикторияДемидова-ы8ж
@ВикторияДемидова-ы8ж 5 жыл бұрын
Первое видео из многих мною просмотренных в котором числа подставили в формулы, за одно это вам поклон до земли ).
@МаксимБ-з3ю
@МаксимБ-з3ю 6 жыл бұрын
Лучший лектор из всех, которых я встречал!
@11Karpovich11
@11Karpovich11 8 жыл бұрын
Отличная лекция! Большое спасибо автору и тому кто это снял и выложил!
@voronow3
@voronow3 5 жыл бұрын
да, толковый экскурс в историю с сопоставлением современности.
@nicolasray6257
@nicolasray6257 2 жыл бұрын
Тема нейросетей для меня довольно сложная и именно этим она и привлекает. Поначалу непонятно совсем ничего, но изучая все больше материала все больше вникаешь в эту тему.
@NarkotikAsd
@NarkotikAsd 3 жыл бұрын
Вот уж не думал что настолько интересно будет . Спасибо
@kerselkerosin
@kerselkerosin 6 жыл бұрын
Коллеги, наконец-то много полезных мелочей, а не просто стандартная медиа-модель НС!
@Mystery-x9m
@Mystery-x9m 2 жыл бұрын
Привет, ты хорошо разбираешься в нейросетях?
@asianasia19
@asianasia19 7 жыл бұрын
Спасибо за материал, очень интересно. А что касается негативных комментов, то они лишний раз подтверждают, что сколько людей, столько и мнений) Видать лекции тоже на вкус и цвет)
@Mystery-x9m
@Mystery-x9m 2 жыл бұрын
Нужен человек в команду, который хорошо разбирается в нейросетях, есть крупный проект, который имеет высокий потенциал коммерциализации
@ЗомбоЯщик-ь6о
@ЗомбоЯщик-ь6о 7 жыл бұрын
Очень хорошо для новичка. Многие моменты значительно прояснились.
@Mystery-x9m
@Mystery-x9m 2 жыл бұрын
Привет, ты хорошо разбираешься в нейросетях?
@anaaa4049
@anaaa4049 8 жыл бұрын
Дождались часть два! Спасибо!
@xarbi.
@xarbi. Жыл бұрын
Вау, удивительно, что я увидел это видел после 6 лет после публикации. Да, графическая карта... Сейчас по-моему она у каждого есть дома)
@sanya8158
@sanya8158 3 жыл бұрын
Спасибо огромное за лекцию!!!
@sashabudjer5760
@sashabudjer5760 10 ай бұрын
Интересная лекция, спасибо!
@СергейПоловинкин-ф1е
@СергейПоловинкин-ф1е 6 жыл бұрын
Отличная лекция. Спасибо!!!
@ilyastepanenko5290
@ilyastepanenko5290 5 жыл бұрын
Просто о сложном. очень понятно и наглядно объясняет
@MrRadiostep
@MrRadiostep 3 жыл бұрын
8:39 схема то как мастерски нарисована! Дизайнер от бога рисовал.
@MakarOff-Pro
@MakarOff-Pro 3 жыл бұрын
Молодчинка!!! Спасибо ВАм!!!!
@ВолодимирФедюн
@ВолодимирФедюн 4 жыл бұрын
Очень ясное изложение! Классно.
@igorg4129
@igorg4129 4 жыл бұрын
Все очень достойно, доступно и понятно. Но есть одна огромная оговорка которая применима не только этому лекатору а помоему ко всем кого я слушал по теме о нейронных сетях. (кроме одного кто сообразил что с этого и надо начинать... ссылка на праведника в конце поста). Они все грешат тем что начинают лекцию не с того. А начинать лекцию надо со следующего вступления: Коллеги, когда заходит речь о решении задач регрессионного типа, есть много способов подогнать под существующие данные(точки) некую кривую- полином, с тем чтобы потом с ее помощью прогнозировать. Вот на вскидку пара таких широкоизвестных способов: Kriging Lowess Spline Fourier series... Так вот, коллеги. Пресловутые нейронные сети, это всего то еще один способ подогнать кривую под существующие точки. У этого метода псть много плюсов, как и недостатков. И об этом мы поговорим сегодня.
@Vadim_Abbakumov
@Vadim_Abbakumov 4 жыл бұрын
Когда нейронная сеть долго играет с другой нейронной сетью в шахматы, обучается между делом, какие точки она подгоняет? В современных задачах идея аппроксимации начинает мешать. И регрессионные модели стали другими, например когда мы оцениваем вероятность того, что на фотографии нет кролика.
@igorg4129
@igorg4129 4 жыл бұрын
@@Vadim_Abbakumov Точки это обзервации- т.н наблюдения. Какой бы не была заумной нейронная сеть, играла бы она в шахматы или отличала кошечек от зайчиков, все построенно именно на идее апроксимации как вы верно отметили. Если вы зададитесь вопросом а что значит слово апроксимация, и вообще что к чему апроксимируется, вы поймете о каких точках -обзервациях-наблюдениях идет речь. Рекомендую ознакомиться towardsdatascience.com/why-a-neural-network-without-non-linearity-is-just-a-glorified-line-3d-visualization-aff85da10b6a www.quora.com/Is-Machine-Learning-just-glorified-curve-fitting news.ycombinator.com/item?id=11704789
@mejilot
@mejilot 3 жыл бұрын
Может стоит начать с того что такое задачи регрессионного типа..? Хотя может это на другом предмете проходят. Я просто совсем не шарю, а лекцию просто слушать приятно
@alexanderdimov7329
@alexanderdimov7329 3 жыл бұрын
@@Vadim_Abbakumov она аппроксимирует функцию беллмана фактически, например, (если политика жадная)..или функцию распределения оптимальной политики в данном состоянии, правда тут уже есть стохастический выбор состояния для обучения ..а вероятностные и стохастические модели это уже к машинам больцмана и прочее, хотя они тоже аппроксимируют ..просто функцию распределения..ну или те же gan..фактически стохастические генераторы..функцию распределения аппроксимируют "фактически"
@Mystery-x9m
@Mystery-x9m 2 жыл бұрын
Привет, ты хорошо разбираешься в нейросетях?
@zerotroll
@zerotroll 8 жыл бұрын
Отлично! Спасибо большое!
@ЕвгенийВаршавский-ю4л
@ЕвгенийВаршавский-ю4л 7 жыл бұрын
Все предельно понятно. Спасибо!
@ancientmysteries3224
@ancientmysteries3224 Жыл бұрын
классные лекции, спасибо
@manechkaification
@manechkaification 8 жыл бұрын
я правильно понимаю что часть 2 будет потихоньку выкладываться? Замечательный лектор, жаль не вживую слушаю!
@CompscicenterRu
@CompscicenterRu 8 жыл бұрын
Да, всё верно. Курс как раз сейчас в процессе прочтения, поэтому выкладываем видео по мере проведения лекций.
@Mystery-x9m
@Mystery-x9m 2 жыл бұрын
Привет, ты хорошо разбираешься в нейросетях?
@Mystery-x9m
@Mystery-x9m 2 жыл бұрын
@@КонстантинИсаев-л6э ну может он за пять лет стал профи
@victoriasemenenkoseo8143
@victoriasemenenkoseo8143 3 жыл бұрын
Уже знают. И все действительно только ввиде связей. Нужны связи они существуют, не практикует особь определенный навык или информацию, связи ослабляются или разрушаются, т.е. уходят в пассив. Но при этом часто связи не исчезают вообще даже если разрушены
@rawen389
@rawen389 Жыл бұрын
Потоки данных сформируют в нейросетевой модели ИИ понятия и индуктивные умозаключения, которые не будут иметь аналогов у человека. Затем последуют непредсказуемо необъяснимые действия. Но для этого нужно самообучение сети, пока же человек оценивает результаты и обучает сеть дальше продвижения не будет. Теорема Геделя в действии.
@mutniytip2000
@mutniytip2000 6 жыл бұрын
отличная лекция
@Achmd
@Achmd 2 жыл бұрын
1:23:00 Ошибка в пороговой функции. График не соответствует условиям
@mrGrey2009
@mrGrey2009 4 жыл бұрын
Крутой препод!
@Сергей-з2е4у
@Сергей-з2е4у 4 жыл бұрын
Я всего навсего слесарь КИП и А, и это мне что-то сильно напоминает. На старых крупных котельных и на ТЭЦ регулировку техпроцесса обеспечивают аналоговые регуляторы на операционных усилителях, обычно с тремя входными импульсами от датчиков и выходом на исполнительное устройство. Это что-же, мы слесаря кип ремонтировали микро нейросети, и обучали их, настраивая коэффициенты каждого импульса (у вас - задавая веса), чтобы регулятор правильно поддерживал необходимый технологический режим.
@Vadim_Abbakumov
@Vadim_Abbakumov 4 жыл бұрын
Во первых да, во вторых современные нейросети сами подстраиваются, а это свойство самообучения - шаг вперед
@yii-art
@yii-art 6 жыл бұрын
Ошибка на слайде 12:48 у пороговой функции. сравнивать надо с 0.5
@user-virt
@user-virt 8 жыл бұрын
Спасибо!
@OlegKorsak
@OlegKorsak 3 жыл бұрын
что значит "нет графической карты "?? 👀
@mcdosnightmare5248
@mcdosnightmare5248 3 жыл бұрын
Буду писать вопросы по ходу лекции
@adeled8833
@adeled8833 3 жыл бұрын
14:38 пороговая : 1 if x>=0
@Vadim_Abbakumov
@Vadim_Abbakumov 3 жыл бұрын
Действительно, ошибся. Спасибо за поправку.
@_Andrew_Parker_
@_Andrew_Parker_ 4 жыл бұрын
После этого видео окончательно понял, как реализовать нейросеть
@hostage2951
@hostage2951 4 жыл бұрын
Вся надежда только на тебя
@mishaalex1583
@mishaalex1583 6 жыл бұрын
Отлично!
@Steklopod
@Steklopod 7 жыл бұрын
Лекция супер! Спасибо.
@Отмена-ютуб
@Отмена-ютуб 3 жыл бұрын
Досмотрел после 1.10 уже не понятно. А так все супер 😊
@tsmutf
@tsmutf 3 жыл бұрын
Мне кажется можно придти к тому, что вообще от понятия нейронная сеть можно будет отказаться. Почему-то мне кажется, что нейтронная сеть просто реализует какой-то механизм (систему), с которым, на самом деле, можно работать иначе. Возможно у нашего мозга просто выбор был не очень большой, и он реализовал это так, но можно было и по-другому.
@alexanderdimov7329
@alexanderdimov7329 3 жыл бұрын
это просто параметрически заданный алгоритм...
@grigogiyreznichenko2033
@grigogiyreznichenko2033 2 жыл бұрын
59:54 2022 а мы до сих пор гадаем где у функции стоимости глобальный минимум))
@serg8483
@serg8483 8 жыл бұрын
Спасибо
@сергейЛавров-у9э
@сергейЛавров-у9э 7 ай бұрын
42:37 - может вы и не разобрались, но даже семь лет назад всё это было уже известно 😉 Профессор Савельев вам в помощь 😂
@viktorliutov7292
@viktorliutov7292 2 жыл бұрын
Спасибо большое автору, но манера подачи материала некудышная, такое впечатление, что это выступление на конференции перед специалистами в данной области, а не первая лекция. Например, формулировка задачи ни как не может звучать как: -"... классическая задача исключаещего или выглядит так...и картинка из которой ничего не понятно.. и много других подобных ситуаций которые превращают просмотр лекции просто во времяпрепровождение.
@adeled8833
@adeled8833 3 жыл бұрын
А архивчик что не выложили?
@TrumponomicsST
@TrumponomicsST 3 жыл бұрын
Подскажите пожалуйста где можно почитать про свободные члены? Зачем они нужны? Спасибо!
@Vadim_Abbakumov
@Vadim_Abbakumov 3 жыл бұрын
Без них f(0,0,0,...0) =0. Но это бессмысленное ограничение.
@TrumponomicsST
@TrumponomicsST 3 жыл бұрын
@@Vadim_Abbakumov спасибо за ответ
@АлександрПетровский-я7б
@АлександрПетровский-я7б 3 жыл бұрын
Простейшая сеть для распознавания рукописных цифр в MATLAB учится на процессоре за несколько минут (максимум за несколько десятков минут).
@JohnLee-bo9ft
@JohnLee-bo9ft 2 жыл бұрын
Можно и без математики, конечно будем все на пальчиках и кружочках объяснять
@Vadim_Abbakumov
@Vadim_Abbakumov 2 жыл бұрын
Добро пожаловать в 21 век. Работаем с функциями, которые удобнее задавать графом вычислений.
@alexk6745
@alexk6745 3 жыл бұрын
41:50 А что сохраненые веса(константы) это не память?
@Vadim_Abbakumov
@Vadim_Abbakumov 3 жыл бұрын
Так я именно об этом говорил
@victoriasemenenkoseo8143
@victoriasemenenkoseo8143 3 жыл бұрын
В мозге чем глубже сеть, тем меньше ресурсов расходуется - классический природный рационализм. Во время лжи мозг расходует неимоверное количество ресурсов, что есть неадекватным с точки зрения природы
@lesgrossman834
@lesgrossman834 3 жыл бұрын
То есть мы не природного происхождения? Ты несёшь чушь. Ложь эволюционно оправдана со всех сторон. Ложь требует больше энергии не потому, что это плохо и противит природе, а потому, что это творческий процесс с моделированием ветвлений. Так же в процессе лжи усиливается контроль над физиологией ради убедительности. И ресурсы достижимые благодаря лжи в случае успеха с лихвой окупают все затраты.
@Алг-ж3д
@Алг-ж3д 3 жыл бұрын
4:45 солаб привет п.с. я знаю, что его тогда не было
@Syllogist
@Syllogist 3 жыл бұрын
А как насчёт того, чтобы снабдить ИИ способностью мыслить? (06-04. ОСНОВЫ ПРАВИЛЬНОЙ СИЛЛОГИСТИКИ (ГЛАВНАЯ ТАЙНА И СЕМЬ СЕКРЕТОВ РАСЧЁТА AEIO-СИЛЛОГИЗМОВ): kzbin.info/www/bejne/i32ZZa2jodp-gJo) СлабО?
@Raven-p6g
@Raven-p6g 3 жыл бұрын
Нейросеть не что иное как модное название с красивыми картинками динамического программирования на суперпозициях функций. То есть получается это полиномиальная аппроксимация.
@СергейКондратенко-о9ц
@СергейКондратенко-о9ц 3 жыл бұрын
да, ну и что?
@Leo_3_in_1
@Leo_3_in_1 3 жыл бұрын
57:37 10 млн наблюдений...так кофточек столько нет))) Это же сколько работы по наработке базы...
@Vadim_Abbakumov
@Vadim_Abbakumov 3 жыл бұрын
Кофточек нет. А фотографий девушек в кофточках сколько захочешь. А база может быть из искусственных фотографий. Когда фото переделывают, и девушку "переодевают" в другой наряд.
@maxvolkov1984
@maxvolkov1984 8 жыл бұрын
На "осень 2017" в описании немного подзавис... Всё-таки весна, наверное.
@CompscicenterRu
@CompscicenterRu 8 жыл бұрын
Ой, да.
@AllSC2Replays
@AllSC2Replays 7 жыл бұрын
25:02 . почему отсутствует связь у Х1 на схеме с одним слоем и больше?
@Vadim_Abbakumov
@Vadim_Abbakumov 7 жыл бұрын
У стандартной нейронной сети эта связь должна быть. У сети нестандартной архитектуры может и отсутствовать. На предыдущем слайде вопросительный знак в фразе "входы - от каждого (?) нейрона предыдущего слоя" указывает на такую возможность. Мне стоило обсудить это поподробнее...
@ВасяСидоров-х5х
@ВасяСидоров-х5х 5 жыл бұрын
зачем в русском переводе писать "биллионы", а не "миллиарды"?
@MrZlobec
@MrZlobec 6 жыл бұрын
Keras для R есть.
@Vadim_Abbakumov
@Vadim_Abbakumov 6 жыл бұрын
Совершенно верно, но интерфейс к Keras в R появился в сентябре 2017, а лекция читалась в феврале...
@jurbanhost
@jurbanhost 2 жыл бұрын
@@Vadim_Abbakumov а сейчас, ура, есть torch - и это не обертка над pyTorch
@mcdosnightmare5248
@mcdosnightmare5248 3 жыл бұрын
Со всем уважением буду писать возникающие вопросы по ходу лекции. Утверждение: 1.- "Информации как таковой внутри нейросети нет, если не считать веса." Разве? Динамическая информация не информация и в нейросети не содержится? 2.- "Мозг" думает не ячейками, "мозг" думает связями. Но это же не значит, что мы не можем использовать ячейки, правильно? Динамическая информация требует намного больше ресурсов для своего функционирования, и вряд ли эволюционный организм этот факт не заметил. Мне кажется ячейки "мозг" все-таки использует, но не для высшей нервной деятельности, а для низшей - для дыхания, потоотделения, сужения зрачков, для того что дается врожденными инстинктами, нет?
@Алг-ж3д
@Алг-ж3д 3 жыл бұрын
а что имеется ввиду под динамической инфой?
@mcdosnightmare5248
@mcdosnightmare5248 3 жыл бұрын
@@Алг-ж3д . 1=1 - не динамическая инфа, 1=3-2 - динамическая инфа.
@deniskoredisko371
@deniskoredisko371 6 жыл бұрын
Что за хрень, как нет видяхи? Сейчас в браузере можно обучать, даже без CUDA, через WebGL (данные в текстуры, шейдер считает, результат пишется обратно в текстуру), такую оптимизацию поддерживает, например Керас.
@Vadim_Abbakumov
@Vadim_Abbakumov 6 жыл бұрын
Интерфейс между R и Keras появился в сентябре 2017, лекция читалась в феврале...
@flocken70
@flocken70 3 жыл бұрын
Неплохо, но имхо, Дмитрий Романов несколько более цельно и точно объясняет.
@АлексейМеньшиков-э5ж
@АлексейМеньшиков-э5ж 3 жыл бұрын
как из 0,1 и -0,2 получилось 0,12?
@Vadim_Abbakumov
@Vadim_Abbakumov 3 жыл бұрын
Это множители, а не слагаемые
@olgapolka168
@olgapolka168 Жыл бұрын
19:39 то есть
@olgapolka168
@olgapolka168 Жыл бұрын
1:15:45
@nodirbek3272
@nodirbek3272 2 жыл бұрын
Почему у российских лекторов так много пустой болтовни. Ведь эту лекцию можно легко по смыслу втиснуть в виде 5-10 минут.
@ScorpionZema
@ScorpionZema Жыл бұрын
У вас их вообще нет в Узбекистане
@ПетяИванов-н2л
@ПетяИванов-н2л 3 жыл бұрын
Биллионы - это миллиарды по-русски
@МихаилКозлов-ц8я
@МихаилКозлов-ц8я 3 жыл бұрын
Здравствуйте. А постоянное ,,АЭ" это навсегда? Или алгоритмы не совместимы с материнкой? Если есть объяснение, укажите путь. Благодарю
@natalialantukh3088
@natalialantukh3088 6 жыл бұрын
хорошие лекции. нужная практическая инфа. а что слова паразиты, так тут не занятия словесности. коллега коллегу поймёт, понятненько?
@Jake_Pozvizd
@Jake_Pozvizd 5 жыл бұрын
коллеги, понятно?
@AlexanderAbramovNN
@AlexanderAbramovNN 4 жыл бұрын
А инфа - не паразит, а!? ;)
@fredhandler9489
@fredhandler9489 4 жыл бұрын
Ничего непонятно, но очень интересно! "Приходилось ли вам читать научно-популярную или учебную книгу с чувством, что вы не совсем понимаете, что в ней написано? Если да, то, скорее всего, исходя из «презумпции невиновности автора», вы вините в этом себя: за свой недостаточно высокий уровень образования, узость кругозора, отсутствие необходимых способностей. Однако правильнее было бы исходить из «презумпции собственной невиновности», так как если вы внимательно вчитываетесь, но не понимаете адресованный вам (согласно книжной аннотации) текст, то виноваты в этом не вы, а автор. Ведь он взялся написать книгу для вас, а не для самого себя или узкого круга своих коллег. Однако для доходчивого и внятного изложения материала ему не хватило логической культуры . Что такое логическая культура? Это знание и соблюдение основных принципов и требований правильного построения и выражения мыслей как в устной, так и в письменной речи. Отсутствие такой культуры приводит к разнообразным логическим ошибкам, которые засоряют не только научное, но и повседневное мышление, мешают нам думать, общаться, понимать друг друга и самих себя. Неясность и неопределенность мышления, его непоследовательность и сумбурность, противоречивость и необоснованность является прямым результатом отсутствия должного уровня логической культуры. Мышление, соответствующее требованиям логики, подобно прозрачному ручью: сквозь воды которого виден каждый камушек и песчинка на дне. Мышление, построенное на нарушениях логических законов, подобно мутному потоку: в нем ничего не видно. Правда, некоторые говорят, что в мутной воде удобнее «ловить рыбу», то есть строить такие высказывания и создавать такие тексты - сложные и малопонятные для адресата, - в которых внешняя глубокомысленность и наукообразность маскируют внутреннюю непоследовательность и порой - бессодержательность. Вряд ли добросовестный человек может быть сторонником такой «рыбалки»". (Д.А.Гусев "Удивительная логика". М.:2010.,Стр.2)
@IvanIsVladimira
@IvanIsVladimira 2 жыл бұрын
Просто это для людей неплохо понимающих в математике. (я сам почти не понял ничего)
@Oleksandr_data_science
@Oleksandr_data_science 5 жыл бұрын
Никак не могу привыкнуть к тому, что x1
@Vadim_Abbakumov
@Vadim_Abbakumov 5 жыл бұрын
Вы правы, меняю в y 0 и 1 местами
@Mystery-x9m
@Mystery-x9m 2 жыл бұрын
Привет, ты хорошо разбираешься в нейросетях?
@nefton001
@nefton001 6 жыл бұрын
почему ошибка это квадрат разницы?
@Vadim_Abbakumov
@Vadim_Abbakumov 6 жыл бұрын
Небрежность речи. Ошибка это разность, сумма квадратов ошибок - критерий качества модели (Такой критерий качества - один из многих, и его популярность уменьшается )
@strapon8465
@strapon8465 3 жыл бұрын
Поднебесный после дурки сильно изменился.
@MrKim-pt2vm
@MrKim-pt2vm 8 жыл бұрын
думаю провалов не будет. серьезных не будет. а сми разведут панику
@VORONOKVA
@VORONOKVA 2 жыл бұрын
Что-то жутко подозрительное на 1 ч 7 мин. Хорошая нейронная сеть у человека не меняет активационную функцию так внезапно как нам тут велят.
@TV-bh1wo
@TV-bh1wo 4 жыл бұрын
Компьютер который выигрывал у человека это не нейро сеть это программы на шахматных движках а нейросеть которая выиграла у этих движков альфа зеро называлась
@Vadim_Abbakumov
@Vadim_Abbakumov 4 жыл бұрын
Да я вроде про го говорил... А за уточнение, что компьютер и программное обеспечение не одно и то же - особое спасибо.
@illarionfido8751
@illarionfido8751 7 жыл бұрын
27:00 все три книжки АМЕРЕКАНЦЫ написали? видос очень интересный, жаль что универсальный язык плохо знаю
@Vadim_Abbakumov
@Vadim_Abbakumov 7 жыл бұрын
1. Christopher M. Bishop и Brian D. Ripley англичане. 2. Книга американца Семена Хайкина переведена на русский: Саймон Хайкин Нейронные сети: полный курс, 2-е издание. 3. Без английского разбираться в анализе данных совсем тяжело.
@illarionfido8751
@illarionfido8751 7 жыл бұрын
Вадим Аббакумов​​ ВЕЛИКОГО и УНИВЕРСАЛЬНОГО АНГЛИЙСКОГО ЯЗЫКА ОБЩИХ ЗНАНИЙ!
@robosergTV
@robosergTV 7 жыл бұрын
без знаний англ. языка с нейронками можешь даже не начинать.
@Uni-Coder
@Uni-Coder 4 жыл бұрын
Бишоп и Рипли? Это же из "Чужих" :)
@---id2el
@---id2el 3 жыл бұрын
!!!
@eugenechernyshenko4933
@eugenechernyshenko4933 4 жыл бұрын
"Если бы у нас был доступ" - colab.research.google.com
@Vadim_Abbakumov
@Vadim_Abbakumov 4 жыл бұрын
Google's Colab появился через год после лекции. Да, было время, когда его не было...
@slavas9200
@slavas9200 5 жыл бұрын
Спасибо, за содержание, но слушать непрятно такую речь. Тезисно набросайте на бумажке, и будет легче в два раза говорить.
@cratasthymos
@cratasthymos 4 жыл бұрын
Рассказал про "ГО" и даже не рассказывал про то что ИИ открыл" все теоремы геометрии
@Vadim_Abbakumov
@Vadim_Abbakumov 4 жыл бұрын
Теоремы геометрии были передоказаны ИИ до 1970 года. IMHO c го была решена более сложная задача... Если Вы здесь добавите про геометрию, буду благодарен. Может я что-то важное пропустил.
@Mary-xp9pe
@Mary-xp9pe 3 жыл бұрын
1.10
@СергейКузнецов-г4ф
@СергейКузнецов-г4ф 2 жыл бұрын
Нейронные сети и ещё чего ,,дипленник,, Реши проблему инсульта, ЧМТ,выбитые функции... А болтать сегодня можно...и кто кого переговорит... А по инсульту ко мне...
@АлексейВасин-м2п
@АлексейВасин-м2п 5 жыл бұрын
Плохая лекция, вместо внятного пояснения общие фразы типа про "очевидные вещи", информация вырванная из контекста, без внятных пояснений, непоследовательно и скомкано. Зря потратил 1.5 часа.
@Achmd
@Achmd 3 жыл бұрын
что такое "пиксЕли"?)) это на каком языке? ужасная лекция, лектор будто впервые этим занимается. "вот икс, вот даблвэ, вот сумма, вот такие аппроксимирующие функции" - что? куда? явно где-то что-то упущено. А упущено само объяснение нейронов. С таким же успехом можно было начать с обратного распространения ошибки, если уж порядок неважен. "на эр нейронки не пишут, лучше пайтон или си" .. в конце лекции: "давайте откроем эрстудио" предлагает литературу 15-летней давности.. это я ещё молчу про косноязычие и "вот, вот, вот, вот, вот". Лучше уж посмотреть "3Blue1Brown" по сетям. Даже в английском варианте больше информативности. Ещё и с графикой. Или в переводе от Sciberia
@ВладимирХаваев-й1к
@ВладимирХаваев-й1к 5 жыл бұрын
Описать одним уравнением, что воспринимает человек, как не очень понятно очередное возвращение.
@ventilyator
@ventilyator 7 жыл бұрын
не очень лекция. очень много оговорок и недоговорок. понял что пытается втюхать лектор только потому, что уже читал про это
@textreanimator
@textreanimator 9 ай бұрын
Судя по названию вашего аккаунта, вы читаете идеальные лекции по вентиляторам.
@Математиканапять
@Математиканапять 6 жыл бұрын
Игра в шахматы давно решена?? надеюсь, ему кто-нибудь расскажет о разнице шашек и шахмат..видимо, ему она неизвестна
@ZugDuk
@ZugDuk 5 жыл бұрын
Что значит решить игру в шахматы? В шахматы играют, а не решают их.
@BrainOfBoltzmann
@BrainOfBoltzmann 8 жыл бұрын
ПАСЕБА
@MelvinStudios
@MelvinStudios 8 жыл бұрын
Хорошая лекция, плохая дикция. Постоянно у него всё "что-то там какое-то", формула "какая-то", реакция "какая-то", гостодьбох "как-то", высвобождаются "какие-то" элементы, долгий подбор слов. 2:47 - nocomment. Слушать, в общем, тяжело. Видимо, у остальных есть терпение)
@ZugDuk
@ZugDuk 5 жыл бұрын
@@ЕвгенийВаршавский-ю4л не сотвори себе кумира)
@markusstainberg
@markusstainberg 7 жыл бұрын
Да когда Савелье говорит что программисты нихера не знают как работает мозг, так оно и есть, Хотя бы книжки почитали бы.
@inbuckswetrust7357
@inbuckswetrust7357 7 жыл бұрын
Если бы Савельев еще что-то знал о программировании цены бы ему не было, а то ему какой-то Мойша напел про тупых программистов как и вам :)
@markusstainberg
@markusstainberg 7 жыл бұрын
Inbucks Wetrust программист обычная инженерная профессия и как и в любом деле глупых там больше чем умных. А нейроны в мозге вообще ни разу не нейроны в компьютере.
@inbuckswetrust7357
@inbuckswetrust7357 7 жыл бұрын
А причем тут какие-то среднестатистические программисты ? :) Савельев болтал о принципиальной невозможности типа "подражать" мозгу, ибо компьютеры де не той архитектуры. Дядя Савельев не в курсе, что вне зависимости от архитектуры компьютеры являются универсальными инструментами в плане вычислений... Да они могут быть более примитивны, не так шустры, без такого количества нейронов как головной мозг, с этим никто пока и не спорил :) но то что это все бесполезно и туфта(а я помню с каким пренебрежением Савельев говорил о нейросетях) Савельев брешет не разбираясь. Я смотрю вы тоже пошли по пути Савельева, с умным видом говорить банальщину. Кто и где и когда утверждал что модель нейрона в компьютере равна нейрону головного мозга ? :))) Модель она всегда модель, любая эмуляция чего угодно не отображает реального процесса происходящего в природе. Ну невозможно искусственно создать чисто физически часть мира имеющую понятие обо всем многообразии этого мира, в силу понятных ограничений. Но пока такие балтуны как Савельев пытаются тугодумить и понять что и как работает изнутри, компьютеры таки будут стоять на краю открытий в мире исследования как мозга так и других интересных вещей. Конечно можно долго надувать щеки и извиняюсь хуесосить другие научные дисциплины но это не красит ученого никак :) Мне как айтишнику смешно слушать бредни Савельева про бесполезность и беспомощность компьютеров в этом вопросе. Странно но мне хватает ума не учить Савельева мозговедению :))) И так же любому мало мальски грамотному человеку сегодня очевидно, что компьютер это по сути микроскоп и телескоп 20 века.... это инструмент в руках многих ученых из разных сфер знаний.
@markusstainberg
@markusstainberg 7 жыл бұрын
Inbucks Wetrust проблема в том как преподаватель объясняет как работает нейрон. А эту всю статистическую халабуду называют нейронной сетью, ты же знаешь что это к реальности имеет отдаленное отношение. Так ты можешь сказать возьми и запили нормальный нейрон, и назови его тру нейрон, так в том то и дело что я знаю только отдаленноо как он работает и я предполагаю из-за этой подмены понятий немногие и заморачиваются . То что Савельев говорит о том что нейронные сети это примитив по сути так оно и есть, это же статистика. Кто спорит что задачи статистики ими решаются или задачи перебора, а решить теорему какую нибудь как сетью?
@markusstainberg
@markusstainberg 7 жыл бұрын
Знаешь я сколько не смотрел лекций и в сколково все лекторы вещают эту дичь вот так выглядит нейрон, а вот наш нейрон и типа да он почти такой же, да вот ни разу не такой, 2 признака, тело, связь и всё называем нейрон бред же.
@ladysoverschenstvo7875
@ladysoverschenstvo7875 4 жыл бұрын
Ээ,ээ,ээ,ээ,ээ так режит слух.
@rustam.u.valiev
@rustam.u.valiev 7 жыл бұрын
Лекция ужасная. Ритмика речи лектора отвратительная. С точки зрения подачи материала -100% (минус сто). Лектор "запарывает" материал. Скачет с 5го на 10е. Никакой системы. Важные моменты проскакивает никак не акцентируя и не разъясняя. У новичка от такой "лекции" будет только сумбур и каша в голове.
@АлексейК-х9з
@АлексейК-х9з 7 жыл бұрын
Если вы не понимаете, не значит, что лектор виноват. Если новичок - учи базу, почитай что-нибудь.
@markusstainberg
@markusstainberg 7 жыл бұрын
Что более толковое на твой взгляд есть посмотреть?
@NatalyaMakarova.sociologist
@NatalyaMakarova.sociologist 7 жыл бұрын
Учебник по информатике для 9-го класса.
@Япохожнакота
@Япохожнакота 6 жыл бұрын
Систематизировать информаци и подавать материал сжато и лаконично очень не просто.
@mutniytip2000
@mutniytip2000 6 жыл бұрын
ну такое, я вот новичок и всем доволен
@ВладимирАнтонов-ы6э
@ВладимирАнтонов-ы6э 5 жыл бұрын
Вместо нейронных сетей russkaja-fizika.ru/sites/default/files/book/mozg._russkaya_teoriya.pdf
@igorshelby5950
@igorshelby5950 3 жыл бұрын
Уж извините, но со строчки про Высший Разум тут же перехотелось читать
@a.o.yaroslavov
@a.o.yaroslavov 7 жыл бұрын
По количеству паразитных слов делаю вывод что лектор не в теме и ближе к шаману, а не к ученому.
@kerselkerosin
@kerselkerosin 6 жыл бұрын
В этом есть правда, ибо прозвучало что нет теоремы решающей вопрос об оптимальной структуре скрытого слоя. Теоремы-то может и нет, но задача вполне решаема и без бубна методами комбинаторики и т.п. Лектор просто не заморочился задуматься, заморочившись лишь гуглением.
@OPKECTPAHT
@OPKECTPAHT 6 жыл бұрын
Это не учёный, это учитель. Не путайте. Одному дано преподавать, другому двигать науку. И не надо ставить знак равенства между вузами и НИИ. Они смежники, но заняты разными делами. Дело преподавателя (учителя) готовить кадры. Наука для вузов вторична. Для научных и научно-исследовательских заведений наоборот, учёба вторична (не везде сейчас аспирантуры есть), а наука первична. Что характерно для большинства наука прикладная, а то и вовсе задачей ставится её внедрение, а не фундаментальные исследования. И это правильно. Каждый должен заниматься своим делом. Автор явный преподаватель, это хорошо, но он не обязан быть крутым учёным.
@ZugDuk
@ZugDuk 5 жыл бұрын
@@OPKECTPAHT совмещать надо исследования, коммерческие заказы и преподавание. Иначе будет отрыв от реальности (вот как в этой лекции например учит тому, что давно не применяется).
@paulvlasov7087
@paulvlasov7087 5 жыл бұрын
Что за ахинея ? В коре около 11 млрд нейронов, в целом, до 150 млрд. Каждый нейрон от 10 тыс до миллиона синапсов. Какие биллионый нейронов?
@vladimir_zenin
@vladimir_zenin 5 жыл бұрын
Калька с английского. Это значит миллиард. dictionary.cambridge.org/ru/словарь/английский/billion
@paulvlasov7087
@paulvlasov7087 4 жыл бұрын
Это ты доктору наук советуешь?:)
@RomeoEdik
@RomeoEdik 5 жыл бұрын
разные модели нейронных сетей / переобученность сети / -- do you realy think, it is working the same like a human brein??? то что вы демонстрируете, это аналог нервной системы обычных рефлексов, и вы эти рефлексы обучаете как ребенок учится ходить, в данной функции никогда не родится сознание. я нашел альтернативу, на много проще чем у вас, думает, видит сны, рассуждает, и на моём домашнем ПК, ненужен супер квантовый компьютер. если интересно пишите мне я расскажу в деталях
@Vadim_Abbakumov
@Vadim_Abbakumov 5 жыл бұрын
Я отчетливо говорю: искусственные нейронные сети работают иначе, чем человеческий мозг.
@ZugDuk
@ZugDuk 5 жыл бұрын
очередной непризнанный гений))
@kolomasov
@kolomasov 4 жыл бұрын
Эдуард - молодец. Теперь дело за малым - возьми хотя бы MNIST - и распознай своими алгоритмами, какова будет точность на отложенной выборке? А потом попробуй ImageNet, какова будет точность на отложенной выборке там? Потом приходи сюда или на хабр, и пиши что получилось. Твои сны, мысли и рассуждения на ПК - оставь себе, пока ты не предоставил измеримые понятные результаты - они нафиг никому кроме тебя не нужны.
@АртурСафиулин-т5в
@АртурСафиулин-т5в 5 жыл бұрын
Не надо цыкать, это противно. Извените
@uporka6924
@uporka6924 Жыл бұрын
Нервные сети
@Dolphinqwe
@Dolphinqwe 6 жыл бұрын
Спасибо
@anjukdakar989
@anjukdakar989 3 жыл бұрын
Спасибо
We Attempted The Impossible 😱
00:54
Topper Guild
Рет қаралды 56 МЛН
Мясо вегана? 🧐 @Whatthefshow
01:01
История одного вокалиста
Рет қаралды 7 МЛН
Лекция. Рекуррентная нейронная сеть
16:54
Deep Learning School
Рет қаралды 21 М.
Нейронная сеть. Пытаюсь познакомиться. Часть 1.
20:05
foo52ru ТехноШаман
Рет қаралды 250 М.
Введение в Deep Learning | Григорий Сапунов (Intento)
2:00:48
Bioinformatics Institute | Институт биоинформатики
Рет қаралды 57 М.
Нейросеть. Самый детальный гайд.
32:23
Уже Наступило
Рет қаралды 246 М.
Искусственные нейронные сети
1:21:49
Computer Science Center
Рет қаралды 10 М.
Мозг ничего не забывает Татьяна Черниговская
34:44
БЕСПЛАТНАЯ ПСИХОЛОГИЯ
Рет қаралды 1,9 МЛН
How To Learn Algorithms? Why? #codonaft
19:22
codonaft
Рет қаралды 587 М.
We Attempted The Impossible 😱
00:54
Topper Guild
Рет қаралды 56 МЛН