Гудфеллоу, Бенджио, Курвилль. Возможно, подразумевалась их книга
@dmitryrukavishnikov67114 жыл бұрын
Впервые плюсанул до просмотра, потому что раньше смотрел это видео на английском. Спасибо за перевод.
@ВадимМусиенко-м5з4 жыл бұрын
Я надеюсь что людей, которые действительно понимают насколько это полезное видео, очень много
@Xanadu379 Жыл бұрын
вряд ли это люди...... ха ха ха
@Darkness-es3zb Жыл бұрын
@@Xanadu379 могу сказать что я человек
@sergeserg2582 Жыл бұрын
@@Darkness-es3zb конечно, по нику же понятно.
@vielear Жыл бұрын
@@Xanadu379ахахахахаха
@untitled58511 ай бұрын
Эта серия роликов, она - на вес золота
@Nini-sv1bd4 жыл бұрын
Теперь осталось распознать почерк врача
@user108104 жыл бұрын
Теперь у меня появилась цель в изучении нейронных сетей
@radikusmanov7574 Жыл бұрын
Не скажу, что заполняемые от руки истории болезни остались в далёком прошлом. Однако российские врачи наших дней, кого я видел, историю болезни, как и остальную документацию ведут теперь иключительно в электронном виде на центральном сервере больницы через персональный компьютер в своём кабинете.
@РазДва-ш8о Жыл бұрын
@@radikusmanov7574 ты хотел сказать московские врачи?
@radikusmanov7574 Жыл бұрын
@@РазДва-ш8о не надо обвинять меня в том, чего я не писал. Написано же: ""... кого я видел ...". Или вы дальше первого предложения никогда не читаете, тут же бросаетесь отвечать? Даже при том, что Москва - это не Россия, больницы в остальных крупных городах тоже компьютеризированы. А что касается сельских больниц, то там и в советские времена с медициной был полный мрак, не до компьютеров. Если во времена Брежнева роль праздничной витрины социализма исполняло государство ГДР, то в наши дни эту роль забрала себе Москва.
@РазДва-ш8о Жыл бұрын
@@radikusmanov7574 , еще бы я твои бредни читал, много тебе чести)
@MrFog1245 жыл бұрын
Не останавливайтесь пожалуйста! Очень интересно!
@52tonns4 жыл бұрын
Очень хорошее видео. Интересно, доступно, полезно. Можно использовать это видео как один из нейронов, активация которого позволяет распознать любое видео как крутое.
@Fray4eger5 жыл бұрын
Релью - это сила, я даже не знал об этом, это шикарная возможность оптимизации ресурсов, СУПЕР спасибо.
@domenos89674 жыл бұрын
Вот только обрезает он только левую часть. Если сверху накрутить еще max() и получить max(min(0,a),1), то будет обрезать в двух сторон
@Юрий-п2г6ч Жыл бұрын
Это очень хорошее видео. Оно состоит из понятных рассуждений и обостряет интерес к продолжению. Особенно интересен алгоритм подбора весов и конечно многое другое.
@СашаКурдаков-ю6и5 жыл бұрын
спасибо, перевод отличный, полезность информации стремится к ста процентам
@bigsponsor5 жыл бұрын
Сомневаюсь что с текущим переводом вы уловили суть.
@bornfram62575 жыл бұрын
@@bigsponsor критикуешь - предлагай. что можешь посоветовать "понятного"?
@monochrome60514 жыл бұрын
@@bornfram6257 Учить английский
@markuscartel82274 жыл бұрын
@@monochrome6051 Автору, не мешало бы Русский выучить, для начала.
@ВиталийПлатунов-к6е2 жыл бұрын
И ста лайкам 🔥
@alexandermartin5694 Жыл бұрын
Самое эффективное вступление в тему, из тех, что мне известны. Подписка и лайк.
@ЕгорСавельев-х7ы5 жыл бұрын
Стал изучать нейросети и как раз разбирал пример кода именно этот. Где обучается сеть на базе картинок 28*28. Видео дало более глубокое понимание работы принципа, взаимосвязей, за это огромное спасибо! В примере лектор сказал что это темный ящик и не было понимания как это связано с линейной алгеброй! Тут все стало понятно, ( хотя это ага эффект и иллюзия ;))ибо в обучении сказали что это чёрный ящик. С нетерпением жду продолжение. Очень крутое объяснение про механизм весов, принцип работы, активации. Но чучуть базово изучить как работает мозг с точки зрение нейрофизиологии тоже полезно для полноты картины и объема понимания! С нетерпением жду продолжения как проходит обучение! Вы делаете очень крутую работу!
@Работа-н9в7 ай бұрын
Ух ты, уже четыре года прошло с твоего комментария. Как успехи в изучении данной темы?
@artemmart7884Ай бұрын
Тоже интересно @@Работа-н9в
@Работа-н9в7 ай бұрын
Это просто лучшее, что можно найти на данную тему. Спасибо!
@slavi82165 жыл бұрын
Спасибо за хороший перевод, исходник очень крутой и понятный при этом. Благодаря переводу он стал доступен для РУ сегмента. Жаль остальные видео только с сабами (несколько корявыми, но и на этом спасибо, тем кто эти сабы делал). На клоунов-гуру англ языка и озвучки не обращайте внимания. Главное начинка конфеты, а не обёртка, особенно учитывая, что конфета бесплатная.
@Руслан-у9д5 жыл бұрын
Просто замечательный перевод, продолжайте!!!
@AS-ig6yb2 жыл бұрын
Мало что понимаю в математике и IT, но было очень интересно посмотреть!
@Techno.Zombie4 жыл бұрын
Спасибо. Было познавательно. Объяснили даже понятнее преподавателей с вышки.
@Orakcool5 жыл бұрын
спасибо за старания, +100500! С такими видео изучать нейросети молодым людям будет гораздо легче
@breech7095 жыл бұрын
Хорошая озвучка. Не останавливайтесь, продолжайте. Подписался.
@raduwka5 жыл бұрын
Лучше поняла все просмотренное, когда вспомнила прогу, где по фото человека ищут похожих/того же самого. Автору спасибо. за видео!
@solyarniy_punya2 ай бұрын
Спасибо авторам, надеюсь у них всё хорошо
@Gregorysharkov Жыл бұрын
Люблю 3blue1brown. Когда начинал заниматься нейросетями пересмотрел все видео по этой теме. Отличный перевод, однако если вы действительно хотите этим заниматься, то умение смотреть и понимать, что говорит автор в оригинале - обязательное условие. Учите английский!!!
@nic07in4 жыл бұрын
14:45 опечатка. В векторе сдвигов последний элемент должен быть bk, а не bn. Произведение слева - вектор столбец длины k+1 (во втором слое k+1 нейронов). P.S. Автору и переводчику огромный респект! Самое крутое объяеснение нейросети. Ждём продолжения переводов. По линейной алгебре тоже огонь, советую. Даёт геометрическую интуицию и реальное понимание, а не тупое зазубривание алгоритмов, как это обычно учат в школе/универе.
@alexeylesyuta98584 жыл бұрын
Тоже заметил.
@coincoinb53073 жыл бұрын
И где ты тут увидел суть обучения нейронки?
@georgemichael68842 жыл бұрын
где найти видео номер3 про линейную алгебру упоминаемую автором в данном видео?
@vitaliaus2 жыл бұрын
ты либо с марса прилетел?)
@UgorGred2 жыл бұрын
Хах. Точняк! Ведь b соответствуют след.слою, а не пред.
@jackfrost4034 жыл бұрын
Спасибо автор, наконец то хоть что-то понятно становится.
@andreypatrick94893 жыл бұрын
Наконец-то нормальное видео на примере, молодцы!
@vedmak20014 жыл бұрын
Спасибо огромное, как раз то что нужно!!! С нетерпением жду следующего видео)
@123zoobecom5 жыл бұрын
Сел поесть, Ну и думаю, посмотрю что-нибудь интересное :-) Если умножить разные виды еды на разные напитки, то получится набор блюд, В среднем которое вы любите есть. Ну от 0 до 9. Вот такая математика
@НикитаСпивак-ф1ю3 жыл бұрын
Там исключение прописывать надо) молоко с рыбой например)
@F_A_F1233 жыл бұрын
Не умножить, а сложить/объединить...
@coincoinb53073 жыл бұрын
Что в итоге то получил , 798 набор блюд?:))) Нахрен повров, пусть нейронка стряпает:))
@VUNCVGxyMFFrS33 жыл бұрын
Добро пожаловать в комбинаторику!) у Райгородского есть крутейшие лекции по ней)
@datorikai9911Ай бұрын
😂
@onmygo78742 жыл бұрын
Спасибо большое за отличное видео и перевод!!!!
@tichonromanov43074 жыл бұрын
Очень доходчиво! Хотя и сжато! Матрицы и веса, конечно, не новое, известны из курса высшей математики😃 но главная идея, видимо, в том, что трудоёмкая ручная работа по вычислению значений переложена на компьютеры! Про сигмоиду и ее простое использование))) в операциях мне понравилось!
@radikusmanov7574 Жыл бұрын
I met that magic when bought the FineReader program of the ABBYY company in 1996. It was great.
@kuntumeitan Жыл бұрын
Благодарю за видео. Жду продолжение !
@КорнеевОлег2 жыл бұрын
Благодарю тебя! Мне важно все, что ты совершаешь в мире.
@NSMenschMaschine5 жыл бұрын
Переводите смело все видео с того канала и распределяйте по плейлистам. Цены этому делу не будет.
@bakaproductionsempai75915 жыл бұрын
дададада озвучка тоже топ , а лучше напишите нейронку которая парсит все с оригинального канала и сама переводит, и сделайте это вводным видео
@MariaGorunova2 жыл бұрын
Довольно понятно и доступно даже для блондинки
@MikhailGoncharov-tl4cr8 ай бұрын
всё чётко сжато, настоящий талант
@крл-я1щ5 жыл бұрын
Огромное спасибо за то, что вы делаете. Надеюсь, это не будет заброшено, ведь в России так мало людей, которые интересуются подобным контентом((( Очень-очень хотелось бы увидеть видео в переводе о кватернионах)
@mikkalitmanen14345 жыл бұрын
Мало? Дурной што ли?
@ВасилийФедотов-б1б5 жыл бұрын
мда уж...
@mikkalitmanen14345 жыл бұрын
@@alosaloda технологические инновации идут не только "оттуда", а их создают во всём мире, где Россия, Индия и Китай занимают лидирующие позиции. В России же не все недоразвитые, как ты.
@mikkalitmanen14345 жыл бұрын
@@alosaloda чтобы писать об инновациях, нужно к ним хотя бы приблизиться немного. А судя по тому, что вы пишете, вы черпаете знания об инновациях из жёлтой прессы.
@mikkalitmanen14345 жыл бұрын
@@alosaloda Как бомжи с бутылкой водки рассуждают о политике, так и ты о инновациях. А у самого даже не хватает душка собрать шмотки и уехать в развитую страну. Но только ты там нахер не сдался никому, поэтому без вариантов.
@georgethehedgehog_offical4 жыл бұрын
Спасибо за видео) хотелось бы увидеть серию видео про линейную алгебру в этом переводе
@DarkFTP5 жыл бұрын
В общем, спасибо, ждем продолжения.
@_____________-__-3 жыл бұрын
Гениально... Сканер, сравнение и вероятность... Так просто...
@apristen4 жыл бұрын
ещё PDA распознавали циферки и буковки из рукописного ввода. но ведь у них не было мощных процессоров и нейросеть там бы тормозила. тогда как они это делали? ответ очень прост! они использовали расстояние Хэмминга - en.wikipedia.org/wiki/Hamming_distance если циферки от 0 до 9 представить в виде 1-мерного массива (расположить все пиксели от верхнего-левого угла до правого-нижнего), то получим 10 одномерных массивов. у рукописного ввода определяем границы символов (тупо сканируем по вертикальным и горизонтальным линиям где хоть 1 не белая точка встрачается пока не будут найдены строки и столбцы границ символов), а каждый символ масштабируем до размеров тех 10 эталонов и тоже приводим к 1-мерному массиву. затем каждый символ сравниваем по расстоянию Хэмминга с 10 эталонами и где расстояние Хэмминга меньше - та цифра это и есть! возможно описание кажется длинным, но это самое простое, эффективное и быстрое (для процессора и памяти компьютера или телефона) решение. да, вот так вот просто можно распознавать рукописный ввод. можно буквально за час написать и поиграться. безо всяких нейросетей. вывод: учим математику ;-)
@eugenedukatta93552 жыл бұрын
Супер! Что такое расстояние Хемминга для двоичных чисел я знал раньше (код Грея и все такое) но сейчас взглянув на указанную статью в Википедии был немного обескуражен тем, что "расстояние" для не-двоичных наборов вычисляется как кол-во не совпадающих разрядов, не важно кол-во возможных состояний разряда. То есть расстояние между белым и почти-белым пикселем равно 1 также как и между черным и былым! И это при том, что разложив два набора в двоичный вид (по сути, лишь изменив форму представления), получится другое расстояние! А так наводка на использование расстояния Хемминга для распознавания образов меня впечатлила, я про такое не знал, сразу (Остапа понесло) стал представлять распознавание отпечатков пальцев, жесты и т.п. Респект!
@apristen2 жыл бұрын
@@eugenedukatta9355 и главное работать будет даже "на ардуине" потому как незатратно по CPU ;-)
@ВладимирР-ж7фАй бұрын
Всегда можно придумать алгоритм для распознавания чего-то, но самое забавное в том, что это не нейросеть. И эту ошибку я совершаю каждый раз, придумывая алгоритм, но нейросеть так не работает. К примеру для распознавания кружков, палок, квадратов можно придумать и написать алгоритм, у меня с этим никогда проблем не было. Но опять же это не нейросеть. Программирование нейросетей это нечто другое и это не обычное программирование, поэтому обычный кодер привыкший к решению задач через выстраивание логических связей и блоксхем должен будет фактически учиться заново прогить, по новому и новым способом. И чем больший у него стаж тем труднее ему будет перестраиваться.
@vartushkin5 жыл бұрын
Ребята из amplify нашли очень правильное место для размещения своей рекламы - браво!
@РомаАзаров-е6ц4 жыл бұрын
Давай продолжение, всё очень круто!!!
@tsvigo11_704 жыл бұрын
Нейроны не "зажигаются" а достигают предела при котором происходит электрический пробой нейрона. Такая сеть очень сложна для начинающего. Надо начинать с сети которую невозможно больше упростить. Нейроны да - можно обозначать числами, но только целыми числами дробные числа усложняют задачу.
@bakaproductionsempai75915 жыл бұрын
очень доходчиво интересно и по делу , строго лайк и подписон
@vladvladov40952 жыл бұрын
Ну и сардельку тебе в попу
@ДенисПрозор5 жыл бұрын
крутое видео и крутой перевод(всё достаточно понятно)
@lemapegas14844 жыл бұрын
Мне почему то и страшно за будущее, но одновременно и интригующе, куда же мы придем)
@SamoFix Жыл бұрын
Только подумал, что оригинальное видео нужно перевести и в рекомендациях увидел перевод.
@dmitrypakseev77894 жыл бұрын
Большое спасибо автору перевода
@Вдоскусвой-ф5щ Жыл бұрын
Это просто невероятно круто!
@14types5 жыл бұрын
Давайте следующее. Куда донатить?
@DarkFTP5 жыл бұрын
+++
@zosimdry5 жыл бұрын
+++
@bublik205 жыл бұрын
+++
@bublik205 жыл бұрын
Похоже что и в природе нет 2 части
@sweetcapitan56905 жыл бұрын
@@bublik20 есть
@dedim55785 жыл бұрын
Возможно я что-то понял, а возможно нет, но это мы поймем потом, а пока я ничего не понял.
@Кубик-с6ч4 жыл бұрын
Вот очень простое объяснение что такое нейросеть и как работает kzbin.info/www/bejne/a4avYX6KpamIgNk
@roman95984 жыл бұрын
DeDim для этого нужно время, но времени нет
@mrMACTADOHT3 жыл бұрын
я тоже, но! Моя нейросеть хоть и в ступоре(сраный гуманитарий), идём дальше, тренируем биологическую нейросеть дабы понять электронную)
Приятно когда не нужно делать лишних действий а просто закинуть 📸 или 📹 в дизайнерскую среду. С описанием К её ретушированию И на выходе получить желаемый результат. ЭТО не просто Ускоряет процесс редактирования и обработки 📸 а Выводит его на новый мировой уровень. Редактор Wombo Al Основан на одном из фильтров компании Adobe И является независимым проэкт ом но его развитие и обучение путём проб и ошибок и их исправлении позволяет ускорить процесс обучения всей Нейросети компании Adobe. Проэкт Wombo Al Появился на свет недавно буквально в Феврале 2021 года. И нуждается в раскрутке и возможном Спонсировани.
@naturetechno60015 жыл бұрын
Наш мозг пытается понять как он устроен.. И не просто пытается понять, а уже вполне конретно многое понял и сделал штуки похожие на себя! Как же причудливы формы движения материи во вселенной
@lastchance9005 Жыл бұрын
Используете специальный психологический приём, когда вы отделяетесь от собственного мозга и как бы наблюдаете извне, чтобы создать вид, что вы исследователь или чтобы показать, что вы исследователь?
@naturetechno6001 Жыл бұрын
@@lastchance9005 Та наверно нет
@Last_Player555 Жыл бұрын
Естественно, мозг не может исследовать сам себя. Отсюда вывод, что мы это не мозг. Мозг лишь машина и не умеет мыслить, подобно компьютеру и нужен пользователь, который будет этой машиной управлять, пользователь это и есть тот, кто думает.
@naturetechno6001 Жыл бұрын
@@Last_Player555 Спорные утверждения. Во первых может мозг исследовать сам себя, ну, не в прямом конечно смысле, а вот чужой мозг в томографе запросто. И исследуют и много чего уже известно
@Last_Player555 Жыл бұрын
@@naturetechno6001 на томографе можно лишь увидеть следствие мышления, увидеть как работает машина. Это то же самое, что изучать прибором автомобиль, видеть как срабатывает руль или педали, передачи, и делать выводы на этом, почему автомобиль едет, но не видеть водителя, потому, что он скрыт от прямого наблюдения.
@aitaiq62164 жыл бұрын
Отлично.Толково.Логично.Ясно.Без воды в решето налита информация.Спасибо автору ролика.И переводчику.Ждем новые Проекты.Переводы.Успехов.784. 28. 28. Всего то 13 тыс. Функций.Ага.Не так уж и много.
@Edpaper Жыл бұрын
Я тут из будущего. У нас появился умный ИИ Chat GPT
@МВолков-с6ж9 күн бұрын
А я из ещё далёкого будущего. У нас тут одни говновозы.
@CharleyDonar5 жыл бұрын
Автору большое спасибо!
@ZAXARIUSS4 жыл бұрын
черт побери, это вообще нормально что я не только понял что было показано в этом видео, но и правильно представлял себе общую концепцию того как это работает? это настолько странно, что мне кажется я что-то неправильно понял))
@user108104 жыл бұрын
На то и создают подобные видео, чтобы каждый дэб понял. Странно скорее то, что многие даже это понять не могут
@Fray4eger5 жыл бұрын
видео не видел еще, но подписался уже.
@gibbed42484 жыл бұрын
Получается, что чем больше ассоциаций - тем лучше.
@ЯшкаКукадеев4 жыл бұрын
Наконец-то понятное объяснение работы нейрости, другие статьи и видео объясняли слишком замудрено и много терминов использовали Не понял только зачем нужны сдвиги(если можно объясните пожалуйста, хочу сам создать проект с нейросетью, но так и не понимал, как они работают) и как всё-таки обучаются нейросети(жду видео)
@stumpjumperfsr4 жыл бұрын
Here is Ai - Artifical Intelegence. Такое обучение есть у NVIDIA. те кто понимает о чем идет речь могут смело подавать резюме - а я в свою очередь ждать новую модель видеокарточки.
@greender6447 ай бұрын
Если у кого-то не работает перемножение матрицы: 14:54 - ошибка небольшая - у матрицы b должно быть k элементов, а не n
@grandoula8022 Жыл бұрын
очень интересно как мы учимся))
@alfredlange12445 жыл бұрын
Напоминает урок про «Как нарисовать сову», точно так же будет долго-долго рисуем два кружка, а потом просто дорисуйте недостающие детали.
@ИванАлександрович-й3ъ4 жыл бұрын
вау очень круто и понятно спасибо
@mirlaniusUMK3 ай бұрын
Это просто шедевр
@valentineb2144 жыл бұрын
Вы только представьте как нейросеть сможет распознавать трехмерные объекты, там ведь будут происходить бесконечные вычисления объекта, при этом в базе данных, информация об объекте должна находиться с разных ракурсов.... Это как фильме о терминаторе, когда на красном экране происходит распознавание объекта и в углу экрана выводиться таблица с 3 мерным динамическим изображением. А теперь представьте, что нейросети нужно распознать в вас не просто человека, а конкретного человека(визуально), сколько будет нужно виртуальной памяти.....
@BALADAINDONESIA2 жыл бұрын
Успіх завжди мій брат Амінь ❤❤❤❤❤❤❤
@Psy-Replicant4 жыл бұрын
очень интересно. ну вы в курсе.
@YmeUla5 жыл бұрын
Это видео просто бомба ,я конечно это все и до этого знал но как оно хорошо объясняет ,кстати не знал про релу , только про сигмоиду . Больше переводов + лайк подписка колокольчик .( эх как повезло англо язычным у них столько контента сразу, но все же я выучу Английский и это будет значить ,что у меня станет больше контента и Русский и Английский)) ) Правда я за жизнь все это не выучу но нестрашно значит будет из чего выбирать .))))
@АлШ-н1м4 жыл бұрын
Спасибо, прекрасное объяснение
@naturetechno60015 жыл бұрын
Все понятно! Все хорошо рассказано, но это потому что про нейросети я читал до этого.
@markv75525 жыл бұрын
Теперь понятно откуда взялось photomath
@ВладМн5 жыл бұрын
ничего не понял, но очень интересно
@SplashT5 жыл бұрын
Даже решил подписаться 🤔
@bigsponsor5 жыл бұрын
Если бы я не был знаком с нейросетями с таким говно-переводом тоже бы ничего не понял.
@nikolay25975 жыл бұрын
Тоже не понял что скозали.Я такие вычисления не проходил .Были токо дроби .
@kfkpk21815 жыл бұрын
@@nikolay2597 ору
@ЛОМЕХУЗА4 жыл бұрын
ахахахах
@ИванКо-у1з5 жыл бұрын
переход от одного слоя нейронов к другому слою можно представить как перемножение вектора на матрицу перехода те LVL1 x M = LVL2 (размерность матрицы count(LVL1) x count(LVL2)) таким образом получаем LVL1 x M1 x M2 x .... x Mn = LVLout используя свойство ассоциативности матриц можно записать как LVL1 x (M1 x M2 x .... x Mn) = LVLout обозначив (M1 x M2 x .... x Mn) = M получаем что любая нейронная сеть может существовать всего лишь из одного перехода LVL1 x M = LVLout Живите с этим
@yasakha29675 жыл бұрын
Ясен пень что каждый нейрон это просто адресат бинарного кода в железе компьютера, вся эта хрень абсолютно абстрактна но она работает
@Дмитрий-ы6й3ю Жыл бұрын
Хотя я немного интересуюсь темой, лучше молча поставлю лайк!!!
@ИванИванов-т6м3ш5 жыл бұрын
Автор сделай пожалуйста продолжение этой темы.
@elitnyy4 жыл бұрын
Короче это - разбиение любой картинки или звука, чего угодно на примитивы, простейшие составляющие, кирпичики, работа с ассоциациями, и далее уже идет работа с этими кирпичиками, с тем, как они расположены. Когда элемент, пиксель один, то все очень просто - он взаимодействует сам с собой, когда же элементов много - то это уже матрица, и чем больше ячеек матрицы, и чем шире диапазон изменений каждой ячейки - тем сложнее анализ этой матрицы, естественно. Теперь понятно для чего создал нас Творец? - А для того чтобы изучать взаимодействие множества, то есть матрицы, для этого он создал таких же, но более молодых, начинающих творцов, то есть нас, мы, свою очередь, когда-нибудь будем создавать свои миры, и нашего Творца создал другой Творец, того - другой - и так бесконечно. Как говорится, если ученый не в состоянии объяснить ребенку любую вещь - то это не ученый, а шарлатан, псевдоученый, слабак. Мир поделен на 12 измерений (условно, так как на самом деле все бесконечно), чем выше измерение - тем выше частота, тем сложнее матрица, тем больше сверхспособностей у человека. В настоящее время мы живем в третьем измерении, в мире максимально четкого разделения всего и вся, с пятого измерения начинается процес объединения, границы между объектами уже не такие четкие, уже видится что все в мире есть энергия, люди объединяют свои разумы в единую сеть, нет противоречий и подавлений, а есть единство в многообразии. Правое полушарие мозга отвечает за интуицию - за связь с другими измерениями, в которых тоже живет его душа, и за воображение, за творчество, а левое полушарие за работу в этом измерении - оно создает время, ведет его отсчет своими биологическими часами, обеспечивает работу логики
@misha_shima_uwu45042 жыл бұрын
ты погнал, братан
@mitz7775 жыл бұрын
Ждём продолжения!...
@bogdao445 жыл бұрын
Жду продолжение до обеда!
@Вдоскусвой-ф5щ Жыл бұрын
Это просто фантастика!
@Felix-og7pd Жыл бұрын
deep level decomposition sigmoid(logistic curve) vs RElu Linear algebra, matrix how to do the same learning?
@LerMak Жыл бұрын
Хауди Хо решил не запариваться над поиском информации
@trash2trash4 жыл бұрын
Может дальше переводы начать? Хороший перевод. Смысл передан.
@rusgames649311 ай бұрын
прекрасное видео
@stumpjumperfsr4 жыл бұрын
* Deep Learning * Deep learning is a subset of AI and machine learning that uses multi-layered artificial neural networks to deliver state-of-the-art accuracy in tasks such as object detection, speech recognition, language translation and others. Deep learning differs from traditional machine learning techniques in that they can automatically learn representations from data such as images, video or text, without introducing hand-coded rules or human domain knowledge. Their highly flexible architectures can learn directly from raw data and can increase their predictive accuracy when provided with more data.
@Xenony1005 жыл бұрын
Все понятно пока....Погнали дальше!
@СофияШилкина-ж5ж2 ай бұрын
14:15 как мы можем перемножить эти матрицу и вектор, если матрицы могут перемножаться, только если число столбцов 1 = числу строк 2. получается, строк к векторе 784, а столбцов в матрице 28? я не могу понять
@nikitas37292 ай бұрын
от куда вы 28 взяли?
@linkernick53794 жыл бұрын
Парни, спасибо за перевод, вы большие молодцы! Есть маленькое замечание, русскоязычный голос звучит странновато, если воспроизводить видео в ускоренном режиме, тембр голоса неузнаваемо меняется независимо от параметра ускорения, от 1.25х до 2х.
@linkernick53794 жыл бұрын
UPD: это искажение голоса только на IPad, на Андроид-телефонах и на десктопе под Linux всё нормально.
@Mihail_Lazarev4 жыл бұрын
Что-то я не понял со вторым слоем. На виде это с 8:57 и до 12:00. Как нейрон и из второго слоя определяют что перед ними именно кусочек кружка или другая маленькая деталька. Как может работать подсчёт взвешенной суммы? Пожалуйста объясните кому не сложно, если конечно кто-то здесь понял это.
@bogdanan56434 жыл бұрын
11:35 - Разве bias не должен быть за функцией, тем самым уменьшая средневзвешанную? А так мы просто вмешиваемся в функцию.
@1Hanch4 жыл бұрын
Если он будет за функцией, он ее будет опускать поднимать, а нам нужно смещение вдоль x(лево-право), и чтобы значение функции была от 0 до 1, поэтому внутри
@atillaattila8900 Жыл бұрын
Спасибо за информацию Очень сложно
@bublik205 жыл бұрын
Очень крутое объеснение
@ibraim31975 жыл бұрын
1) Существуют ли стандартные форматы хранения моделей нс (обученой сети) ? может какое-то расширение xml. 2) Правильно ли я понимаю, что вычислительноёмко только обучение сети, а само использоваине - не особо?
@Orakcool5 жыл бұрын
Все правильно - обучение сложный процесс, который требует огромного распараллеливания *(конечно зависит от размеров сети). А прогнать матрицы можно и на микроволновке)))) Формат зависит от фреймвока
@Shamshurin_Alexander3 жыл бұрын
Вопрос Как делаю такие анимации Всегда было интересно, но никогда не узнавал
@АндрейАладьев-г1ъ10 ай бұрын
Гораздо проще это объясняется с точки зрения геометрии. Сначала мы выбираем характеристики, получаем н-мерное пространство характеристик. В этом пространстве у нас есть точки. Затем мы строим н - 1 мерную плоскость, чтобы разделить характеристики на 2 группы. Она определяется с помощью матрицы и и оффсета. По сути задача построения модели для обучения есть построение различных плоскостей, которые будут эффективно делить наши характеристики на каждом этапе до получения результата.
@aviator14724 ай бұрын
Я ни черта не понял
@ЕвгенийКовалев-к2е4 жыл бұрын
Будет продолжение? Очень интересно
@АнатолийНовиков-ч1п5 жыл бұрын
Каждый вправе выбирать своё будущее. И мы идём в будущее, которое сами выбрали! Пусть мы не знаем, что будет завтра, но ради него мы живём на полную сегодня!