¿Qué son Word EMBEDDINGS? ¡Explorando Embeddings con GloVe y Python!

  Рет қаралды 2,779

Pepe Cantoral, Ph.D.

Pepe Cantoral, Ph.D.

9 ай бұрын

Bienvenidos a este nuevo video en el que vamos a explorar el emocionante mundo de los "Word Embeddings" o incrustaciones de palabras. Pero no nos detendremos en la teoría; ¡Vamos a llevarlo a la práctica utilizando GloVe!
Puntos Clave:
Introducción a los "Word Embeddings" y su importancia en el Procesamiento del Lenguaje Natural (PLN) O Natural Language Processing.
Implementación de funciones Python para resolver analogías, encontrar palabras similares y visualizar mapas de palabras.
Tecnologías Utilizadas:
GloVe (Global Vectors for Word Representation) como modelo de incrustación de palabras preentrenado.
Python para la implementación de funciones de análisis y visualización.
Lo Que Aprenderás:
Cómo cargar y utilizar embeddings preentrenados con GloVe.
Cómo implementar funciones Python para responder preguntas como "hombre es a mujer como rey es a...?".
Cómo visualizar las relaciones semánticas entre palabras en un mapa.

Пікірлер: 18
@andreamoreno4290
@andreamoreno4290 9 ай бұрын
Gracias profe!! No desistas nunca de realizar estas explicaciones de manera tan sencilla y práctica y en español. Siempre muy agradecida.
@matiasasses9841
@matiasasses9841 6 ай бұрын
Excelente como siempre Pepe! Ojalá continúes con esta serie de NLP hasta llegar a los grandes modelos de lenguaje!! Muchas gracias!! Abrazo
@PepeCantoralPhD
@PepeCantoralPhD 4 ай бұрын
Hola @matiasasses9841 , muchas gracias por tu comentario! Mi intención es en la próximas semanas, precisamente llegar a cubrir e implementar en código al menos versiones miniatura de transformers. Un abrazo!
@exulonk7517
@exulonk7517 9 ай бұрын
Pepe. Quiero que siempre recomiendo tu canal. Sobre todo los chicos que entran en la carrera de Ingeniería Informática y que sienten interés por Deep Learning o Inteligencia Artificial en general. Muy buenos vídeos, me estas inspirando mucho a hacer algo parecido en un futuro.
@mauespinola
@mauespinola 3 ай бұрын
muy claro, gracias hay pocas explicaciones tan sencillas de entender
@Neo_SF
@Neo_SF 8 ай бұрын
Muy buen video. Entender qué es un embeddings fue algo que me costó algo de trabajo asimilar, pero tu explicación me parece muy clara. Sigue así profe.
@leadnauta
@leadnauta 2 ай бұрын
Gracias
@PepeCantoralPhD
@PepeCantoralPhD Ай бұрын
Muchas gracias por tu comentario!
@DragonBZeta
@DragonBZeta 9 ай бұрын
Genial!
@PepeCantoralPhD
@PepeCantoralPhD 9 ай бұрын
Muchas gracias!
@anonimomccn
@anonimomccn 9 ай бұрын
Excelente el video pepe, muy buena la explicación.
@LeonardoEnriqueMorenoFlores
@LeonardoEnriqueMorenoFlores 9 ай бұрын
Que impresionante! Muchas gracias Pepe.
@PepeCantoralPhD
@PepeCantoralPhD 9 ай бұрын
Como siempre Leonardo, agradezco enormemente tu apoyo al canal desde su inicio! Muchos saludos!
@ChristianESL
@ChristianESL 9 ай бұрын
arriba MNA!!
@LeonardoEnriqueMorenoFlores
@LeonardoEnriqueMorenoFlores Ай бұрын
Hola Pepe una consulta en la función los más similares estoy utilizando para la distancia del coseno un valor mayor 0.5 cuál sería el valor apropiado?
@israelaaronpino6843
@israelaaronpino6843 4 ай бұрын
Una pregunta la unidad de medida que representa la cercanía de una palabra hacia otra está dado por el universo de los datos o por otra cosa?, que hace que una palabra esté más cerca de la otra? en el fondo como se construye esta unidad de medida de la distancia?
@javier2luna
@javier2luna 4 ай бұрын
representar 200 dimensiones en SOLO dos dimensiones parece muy realista
@lagrangianomodeloestandar2724
@lagrangianomodeloestandar2724 9 ай бұрын
Hicieron el paper Meta Learning for Compositionally,MLC en Nature,básicamente dicen que han encontrado una forma de modificar un Seq2Seq y crear un modelo que supera incluso a los humanos(25 que hicieron el experimento) en generalizar predicciones....Si puede explicarlo mejor aquí....😂
¡LSTM: Todo lo que necesitas saber!
44:05
Pepe Cantoral, Ph.D.
Рет қаралды 3 М.
Modelos secuenciales y REDES NEURONALES RECURRENTES
50:13
Pepe Cantoral, Ph.D.
Рет қаралды 2,4 М.
路飞太过分了,自己游泳。#海贼王#路飞
00:28
路飞与唐舞桐
Рет қаралды 37 МЛН
A little girl was shy at her first ballet lesson #shorts
00:35
Fabiosa Animated
Рет қаралды 16 МЛН
Inside Out 2: Who is the strongest? Joy vs Envy vs Anger #shorts #animation
00:22
Clown takes blame for missing candy 🍬🤣 #shorts
00:49
Yoeslan
Рет қаралды 47 МЛН
BATCH NORMALIZATION: ¿Qué es y para qué sirve?
27:59
Pepe Cantoral, Ph.D.
Рет қаралды 1,5 М.
Las Matemáticas detrás de la IA
14:39
sammas24
Рет қаралды 3,7 М.
¿Qué son los EMBEDDINGS?
10:09
Codificando Bits
Рет қаралды 6 М.
¡Python DECORATORS! ¡Cómo funcionan los decoradores de Python!
20:00
Pepe Cantoral, Ph.D.
Рет қаралды 438
BATCH NORMALIZATION en Redes Convolucionales: Python y PyTorch
17:06
Pepe Cantoral, Ph.D.
Рет қаралды 479
Word2vec explicado: Procesamiento del lenguaje natural (NLP)
14:33
Garaje de ideas | Data
Рет қаралды 2,7 М.
Entrena un modelo de Word2Vec en 6 min!
6:38
Sharing Knowledge
Рет қаралды 2,2 М.
路飞太过分了,自己游泳。#海贼王#路飞
00:28
路飞与唐舞桐
Рет қаралды 37 МЛН