No video

Представление текста плотным вектором | Нейросети для анализа текстов

  Рет қаралды 11,450

Andrey Sozykin

Andrey Sozykin

4 жыл бұрын

Как использовать плотные векторные представления слов (embeddings) для анализа текста нейронной сетью. Страница курса - www.asozykin.r...
Лекция "Представление текста в цифровом виде для нейросети" - • Представление текста в...
Лекция "Анализ тональности отзывов на фильмы IMDB" - • Анализ тональности отз...
Лекция "Представление текста вектором One Hot Encoding" - • Представление текста в...
Ссылка на ноутбук в Colaboratory - colab.research...
Как можно поддержать курс:
1. Яндекс Кошелек - money.yandex.r...
2. PayPal - www.paypal.me/...
Заранее спасибо за помощь!
Добавляйтесь в друзья в социальных сетях:
вКонтакте - avsozykin
Instagram - / sozykin_andr
Facebook - / asozykin
Twitter - / andreysozykin
Мой сайт - www.asozykin.ru
Мой канал с краткими и понятными объяснениями сложных тем в ИТ и компьютерных науках - / andreysozykincs

Пікірлер: 24
@user-pu1wu8kv5p
@user-pu1wu8kv5p 4 жыл бұрын
Здравствуйте Андрей. Ваш курс просто шикарный. Пересмотрел несколько книг по ML и несколько других виде-курсов - они не идут ни в какое сравнение с вашим. Вы объясняете все детали и тонкости, при этом без лишних отступлений, всё показано на практике, что необходимо виуализировано, а главное видно, что вы сами хорошо разбираетесь в том о чем говорите. Просмотрел ваш курс практически на одном дыхании за два дня. Всё ложится точно куда надо. Разрозненные знания начали связываться в единую картинку. Спасибо вам. Донат с меня обязательно, Я-деньги и Палка для меня не очень удобные способы, но я найду способ и обязательно передам вам своё "материальное" спасибо :)
@kantulaev
@kantulaev 4 жыл бұрын
Как всегда прекрасная работа, Андрей!
@AndreySozykin
@AndreySozykin 4 жыл бұрын
Спасибо!
@user-ej5up4bk8o
@user-ej5up4bk8o 4 жыл бұрын
Андрей, продолжай в том же духе. Тема интересная. Спасибо за видео, как всегда всё кратко, понятно и по существу.
@AndreySozykin
@AndreySozykin 4 жыл бұрын
Спасибо за приятный отзыв, продолжать обязательно буду.
@pavel2101
@pavel2101 3 жыл бұрын
Андрей большое спасибо за классные видео!!!
@AndreySozykin
@AndreySozykin 3 жыл бұрын
Пожалуйста!
@MrNovoross86
@MrNovoross86 3 жыл бұрын
Просто супер. Спасибо
@AndreySozykin
@AndreySozykin 3 жыл бұрын
Пожалуйста!
@Nurzhanov
@Nurzhanov 4 жыл бұрын
Очень вятно и ясно
@AndreySozykin
@AndreySozykin 4 жыл бұрын
Привет. Большое спасибо!
@Gleb_Pastushenko
@Gleb_Pastushenko 3 жыл бұрын
На 8:47 ошибка - мы же добавили 4 слова в словарь по-этому "for word_num in range(max_words + 4):"
@dhsbdhsb6908
@dhsbdhsb6908 4 жыл бұрын
Спасибо за видео
@AndreySozykin
@AndreySozykin 4 жыл бұрын
Пожалуйста!
@user-rt1dt5kx3p
@user-rt1dt5kx3p 2 жыл бұрын
Спасибо!
@user-zh5ro2wg8m
@user-zh5ro2wg8m 3 жыл бұрын
Интересно, что качество модели существенно улучшается, если заменить Adam на RMSprop, a токены представлять в виде не двух плотных векторов, а одного. Также неожиданно, что на качество модели сильное влияние оказывает именно стой Flatten, a Dropout - практически не влияет.
@Gleb_Pastushenko
@Gleb_Pastushenko 3 жыл бұрын
Здравствуйте, Андрей. Я так понимаю, что Embedding не должен быть однозначным и после каждого нового обучения (с нуля) будет формироваться массив векторов с другими значениями на тот же список слов?
@AndreySozykin
@AndreySozykin 3 жыл бұрын
Да, именно так.
@Julia-ej4jz
@Julia-ej4jz Жыл бұрын
Не смогла уловить, как обучаются эмбэддинги. Просто по контексту, как обычно, или же с учетом тональности. То есть про каждое слово становится известно, положительное оно или отрицательное?
@ivfnhg9626
@ivfnhg9626 Жыл бұрын
Зравствуйте Андрей! Большое спасибо за ваш курс по нейронным сетям. Я не понимаю смысла Embedding слоя, то есть что он делает я понимаю но для чего он, ведь основную проблемму которая заключается в том что из за большого обьема данных для обучения (в нашем случае max_words) нужно использовать большой обьем памяти ,то есть в итоге Embedding слой все равно развернет входные данные в вектор размерностью max_words и все равно использует тот же обьем памяти. А если размерность входных данных гораздо больше чем у вас , допустим мы работаем не со словарем а с цифрами где минимальная цифра ноль а максимальная десять милионов то что здесь делать, как решить эту проблему (разделение обучающей выборки на части здесь как я понимаю не пройдет ведь размер самой библиотеки не уменьшится а значет и входной вектор останится огромным)? П.С. Вопрос больше относится к рекуррентным нейронным сетям .
@Nurzhanov
@Nurzhanov 4 жыл бұрын
Привет привет Андрей
@user-tt8ok4uw1z
@user-tt8ok4uw1z 3 жыл бұрын
А Emdedding тоже обучается? И как он инициализируется? Берется предобученный из keras?
@AndreySozykin
@AndreySozykin 3 жыл бұрын
Embedding обучается. Инициализируется случайными значениями, как и любой нейронный слой.
@vladtamolov2292
@vladtamolov2292 4 жыл бұрын
Ёууу
Твоя ПЕРВАЯ НЕЙРОСЕТЬ на Python с нуля! | За 10 минут :3
18:31
Хауди Хо™ - Просто о мире IT!
Рет қаралды 248 М.
Советы на всё лето 4 @postworkllc
00:23
История одного вокалиста
Рет қаралды 5 МЛН
CHOCKY MILK.. 🤣 #shorts
00:20
Savage Vlogs
Рет қаралды 27 МЛН
哈莉奎因以为小丑不爱她了#joker #cosplay #Harriet Quinn
00:22
佐助与鸣人
Рет қаралды 10 МЛН
No empty
00:35
Mamasoboliha
Рет қаралды 12 МЛН
The OpenAI (Python) API | Introduction & Example Code
23:46
Shaw Talebi
Рет қаралды 28 М.
The moment we stopped understanding AI [AlexNet]
17:38
Welch Labs
Рет қаралды 910 М.
25 Nooby Pandas Coding Mistakes You Should NEVER make.
11:30
Rob Mulla
Рет қаралды 266 М.
Redis за 20 минут
23:22
suchkov tech
Рет қаралды 124 М.
Советы на всё лето 4 @postworkllc
00:23
История одного вокалиста
Рет қаралды 5 МЛН