Нейронные сети. Лекция 1 - пример нейронной сети, основы работы, примеры датасетов

  Рет қаралды 7,698

Koshechkin Konstantin

Koshechkin Konstantin

Күн бұрын

В данной лекции приведено описание базовых принципов работы с нейронными сетями.

Пікірлер: 13
@nadezhdamartynova5614
@nadezhdamartynova5614 2 жыл бұрын
Я бесконечно благодарна за то, что такая информация выложена бесплатно в соц.сетях. спасибо за вашу работу. Но дана теоретическая часть очень сложно, очень сухо. Многие вещи рассказаны настолько сжато, что непонятно, о чем идет речь.
@АлександрВальвачев-я6ъ
@АлександрВальвачев-я6ъ 9 ай бұрын
Полезной информации - ноль. Структуризация бездарна. Жаль.... тема актуальная.
@polar_fox24
@polar_fox24 2 ай бұрын
Извлечет слушающий пользу или нет ещё и от самого слушающего зависит.
@БереговоеФеодосия
@БереговоеФеодосия 5 ай бұрын
Так просто материал может подать человек, который разбирается в теме. Спасибо.
@yuralamov9835
@yuralamov9835 6 ай бұрын
Бля, раньше называли просто OCR, а теперь искусственный разум
@andreyfly4331
@andreyfly4331 7 ай бұрын
Хорошо бы ссылку на ноутбук, иначе невозможно все это усвоить.
@morispioneer632
@morispioneer632 9 ай бұрын
"метод вычисления градиента" - градиента чего ?? Или градиент это нечто конкретное, как например портфель? Просто портфель. Но даже портфель непрост. Он бывает как сумка, а бывает портфель ценных бумаг.
@koshechkintube
@koshechkintube 9 ай бұрын
Градиент - это величина, которая показывает скорость изменения функции в каждой точке ее области определения. В контексте обучения нейронных сетей градиент обычно используется для вычисления ошибки и обновления весов нейронов. Метод вычисления градиента в обучении нейронных сетей основан на правиле дифференцирования. Для вычисления градиента функции необходимо вычислить производную этой функции по каждому из ее аргументов. В случае нейронной сети, функция может быть представлена как совокупность функций активации нейронов, а аргументами будут входные данные. Процесс вычисления градиента начинается с вычисления ошибки на выходном слое нейронов. Затем ошибка распространяется назад через слои нейронов, и для каждого слоя вычисляется градиент функции потерь относительно весов этого слоя. После этого происходит обновление весов каждого слоя с помощью метода обратного распространения ошибки. В целом, метод вычисления градиента является ключевой частью процесса обучения нейронных сетей и позволяет находить оптимальные веса нейронов для минимизации ошибки.
@morispioneer632
@morispioneer632 9 ай бұрын
спасибо большое за ваш ответ, но ... бывает например градиент температуры. Или градиент скорости. Или градиент яркости света. @@koshechkintube
@InStoKiller
@InStoKiller 7 ай бұрын
Стохастический Градиентный Спуск
@trelawney8530
@trelawney8530 7 ай бұрын
@@morispioneer632 это ответ нейросети, если что)
@ruslanvist9958
@ruslanvist9958 Ай бұрын
​​@@koshechkintubeнаверное не скорость изменения функции, а скорость изменения результата функции
Нейронные сети. Лекция 2. Базовый Python
1:36:28
Konstantin Koshechkin
Рет қаралды 754
Лекция. Сверточные нейронные сети
50:11
Deep Learning School
Рет қаралды 53 М.
when you have plan B 😂
00:11
Andrey Grechka
Рет қаралды 67 МЛН
OYUNCAK MİKROFON İLE TRAFİK LAMBASINI DEĞİŞTİRDİ 😱
00:17
Melih Taşçı
Рет қаралды 12 МЛН
Do you choose Inside Out 2 or The Amazing World of Gumball? 🤔
00:19
AI: от LLM и дальше. Лекция 1.
1:31:14
Евгений Разинков
Рет қаралды 2,2 М.
Нейронные сети. Лекция 4. Базовый Python
53:09
Konstantin Koshechkin
Рет қаралды 213
Самое простое объяснение нейросети
16:30
Программный Кот
Рет қаралды 122 М.
Свёрточные нейронные сети
14:02
Самостоятельная работа
Рет қаралды 8 М.
Нейронные сети. Лекция 6. Базовый Python
1:01:16
Konstantin Koshechkin
Рет қаралды 205
Нейросеть. Самый детальный гайд.
32:23
Уже Наступило
Рет қаралды 245 М.