КАК РАБОТАЕТ WORD2VEC И ПОЧЕМУ ОН НЕ РАБОТАЕТ

  Рет қаралды 902

Институт психологии РАН

Институт психологии РАН

Күн бұрын

Клышинский Э.С., PhD, Associate Professor, Dept. of Computer Science,
Higher School of Economics,
Moscow, Russia.
В 2013 году команда из Google предложила новый метод, который позволяет приписать каждому слову в коллекции текстов некоторый вектор в семантическом пространстве. Основой для метода послужила старая идея о том, что смысл слова можно понять по его окружению. Построение взвешенного графа связей между словами позволяет дать оценку степени близости слов, а сам этот граф вполне может быть построен из текста. При помощи несложных преобразований граф переносится в пространство, которое обладает рядом полезных свойств: слова одной предметной области оказываются недалеко друг от друга, в полученном пространстве работают аналогии, появлятся возможность измерить семантическое расстояние между словами. Аналогии в подобном пространстве работают в виде векторых операций. Если из вектора слова “мужчина” вычесть вектор слова “женщина” и прибавить вектор слова “король”, то должен получиться вектор слова “королева”. На практике вскоре выяснилось, что подобный подход работает далеко не везде. Кроме того, если слово обладает несколькими значениями, то все они будут объединены в вектор с каким-то усредненным значением. Последний недостаток исправляет подходы BERT и ELMO, выдающие вектор только для контекста
The online workshop for young scientists “Network analysis in human cognition and language processing”
Воркшоп Института психологии РАН для молодых ученых "Моделирование и анализ сетей в когнитивной системе человека и языке".
24 - 25 октября 2020 года

Пікірлер: 2
@newglory6789
@newglory6789 7 ай бұрын
Благодарю вас за такую содержательную лекцию! Обьясеяеете очень наглядно и доходчиво такие сложные вещи, как векторное представление) Как же рада, что нашла вас!
@lostlife3453
@lostlife3453 5 ай бұрын
а красивая девушка внимательно слушает)
INVESTIGATING PROCESSES AND DEVELOPMENT OFTHE MENTAL LEXICON THROUGH NETWORK SCIENCE
1:30:06
Институт психологии РАН
Рет қаралды 74
Лекция. Контестные эмбеддинги. Word2Vec.
29:12
Deep Learning School
Рет қаралды 16 М.
Это было очень близко...
00:10
Аришнев
Рет қаралды 7 МЛН
Colorful Pasta Painting for Fun Times! 🍝 🎨
00:29
La La Learn
Рет қаралды 308 МЛН
What is generative AI and how does it work? - The Turing Lectures with Mirella Lapata
46:02
Word Embedding and Word2Vec, Clearly Explained!!!
16:12
StatQuest with Josh Starmer
Рет қаралды 327 М.
Вектор отражает семантику слова - word2vec! Лекция 2 по NLP.
47:42