👉🔴 Redes neuronales EMBEDDINGS en Español + Word2Vec (NLP); QUÉ SON, CÓMO y PORQUÉ FUNCIONAN

  Рет қаралды 6,557

Xpikuos

Xpikuos

Күн бұрын

Пікірлер: 26
@jessicamariariverajimenez3232
@jessicamariariverajimenez3232 Жыл бұрын
Muchas gracias por esta explicación 🤗
@Xpikuos
@Xpikuos Жыл бұрын
De nada. No olvides suscribirte al canal, darle a LIKE al vídeo, y compartirlo en las redes sociales. Gracias :)
@wilfredomartel7781
@wilfredomartel7781 8 ай бұрын
Buen video!
@Xpikuos
@Xpikuos 8 ай бұрын
Gracias! No olvides darle a LIKE y compartirlo en las redes sociales ;)
@nagainu
@nagainu 2 жыл бұрын
muchas gracias me ayudo a entender mejor el funcionamiento
@Xpikuos
@Xpikuos 2 жыл бұрын
Gracias. Me alegro que te haya sido útil. No olvides darle a LIKE al vídeo, compartirlo en las redes sociales. Gracias ;)
@tadeoriverosk
@tadeoriverosk 2 жыл бұрын
¡Esto es tremendo material! Muchísimas gracias profe!
@Xpikuos
@Xpikuos 2 жыл бұрын
Me alegro que te haya gustado. No olvides suscribirte al canal, darle a LIKE al vídeo y compartirlo en las redes sociales. Gracias :)
@juandavidceballos4394
@juandavidceballos4394 2 жыл бұрын
Excelente video ... entendido muy bien los embeddings !!
@Xpikuos
@Xpikuos 2 жыл бұрын
Gracias! Me alegro que te guste. No olvides compartirlo en las redes sociales y darle a LIKE ;)
@ManelTIC
@ManelTIC 3 жыл бұрын
Buenas denomenal el video. Però tengo una duda, que relación o diferencia hay entre word embbedding y una ventana de contexto (context window)¿¿ gracias
@Xpikuos
@Xpikuos 3 жыл бұрын
El "context window" está formado por el conjunto de palabras que rodean a una de la cual se quiere obtener su embedding (que este caso, se llama, word embedding). O sea, en la frase "Me gustan los caramelos de chocolate", el context window de "caramelos" sería (gustan,los,de,chocolate), por lo que el tamaño de la "context window" es de 2 porque se toman 2 palabras antes y después de la palabra "caramelo". Mírate esto: blog.cambridgespark.com/tutorial-build-your-own-embedding-and-use-it-in-a-neural-network-e9cde4a81296 ... y no olvides darle a LIKE al vídeo, compartirlo en las redes sociales y suscribirte al canal ;) Gracias.
@elblogdelbiomedico465
@elblogdelbiomedico465 2 жыл бұрын
Excelente explicación muchas gracias :D, solo tengo una duda, con respecto a obtener la palabra asociada a un vector ¿Que vendría siendo el embedding_layer? estoy teniendo problemas con esa parte ó si no es mucha molestia, en donde podría consultar información al respecto ya que no he podido encontrar como convertir vector to word. Muchas Gracias
@Xpikuos
@Xpikuos 2 жыл бұрын
Te has mirado la explicación de esta parte del vídeo? kzbin.info/www/bejne/mJ25nYCtiNqkadU
@SR_M0L1NA
@SR_M0L1NA 3 жыл бұрын
¡Flipántico!.
@Xpikuos
@Xpikuos 3 жыл бұрын
Gracias! :) Me alegro que te guste. No olvides darle a LIKE y compartirlo en las redes sociales ;)
@SR_M0L1NA
@SR_M0L1NA 3 жыл бұрын
@@Xpikuos Siempre lo hago.
@Xpikuos
@Xpikuos 3 жыл бұрын
Gracias :)
@alvarocamacho5438
@alvarocamacho5438 2 жыл бұрын
Hola, quería saber si alguno de ustedes conoce de algún repositorio con modelos CBOW de diversas dimensiones en español? La verdad he encontrado muy pocos modelos previamente entrenados... Gracias!
@Xpikuos
@Xpikuos 2 жыл бұрын
Yo creo que todos tenemos el mismo problema ;)
@jonfe
@jonfe 2 жыл бұрын
Es decir que la cercania aprendida de cada palabra con otra, esta dada por la frecuencia en la que son encontradas cerca en los millones de textos analizados?
@Xpikuos
@Xpikuos 2 жыл бұрын
... casi. En concreto: la cercania aprendida de cada palabra con otra, depende de la frecuencia en la que son encontradas en contextos semejantes en los millones de textos analizados. Dicha semejanza se calcula mediante la distancia coseno con los otros embeddings correspondientes. Espero haberte aclarado algo :)
@elmarlyn
@elmarlyn 3 жыл бұрын
Como podemos ir agregando palabras fuera del vocabulario?
@Xpikuos
@Xpikuos 3 жыл бұрын
La solución no es trivial y realmente lo que se hace es usar "trucos" (como por ejemplo, a groso modo, ver si esa palabra se puede descomponer como la suma de otras (por ejemplo, prefijos, sufijos, etc.))... Mírate los siguientes links: datascience.stackexchange.com/questions/54806/word-embedding-of-a-new-word-which-was-not-in-training stackoverflow.com/questions/45113130/how-to-add-new-embeddings-for-unknown-words-in-tensorflow-training-pre-set-fo Espero que te sirva de ayuda... y no olvides darle a LIKE al vídeo si te ha gustado, compartirlo en las redes sociales y suscribirte al canal. Gracias :)
@DONROBOTZ
@DONROBOTZ Жыл бұрын
No me he enterado de na
@Xpikuos
@Xpikuos Жыл бұрын
Entonces es que te falta aún mucho por aprender... No es un vídeo fácil ni para principiantes. Así que ánimo y a seguir estudiando ;)
CONTENIDO EN CONSTRUCCIÓN
0:46
Xpikuos
Рет қаралды 3,5 М.
¿Qué son Word EMBEDDINGS? ¡Explorando Embeddings con GloVe y Python!
32:14
VIP ACCESS
00:47
Natan por Aí
Рет қаралды 30 МЛН
How to treat Acne💉
00:31
ISSEI / いっせい
Рет қаралды 108 МЛН
Quando A Diferença De Altura É Muito Grande 😲😂
00:12
Mari Maria
Рет қаралды 45 МЛН
Word Embedding and Word2Vec, Clearly Explained!!!
16:12
StatQuest with Josh Starmer
Рет қаралды 376 М.
👉🔴 RED NEURONAL ADALINE vs PERCEPTRÓN + HOPFIELD
20:50
What are Word Embeddings?
8:38
IBM Technology
Рет қаралды 35 М.
Word2vec explicado: Procesamiento del lenguaje natural (NLP)
14:33
Garaje de ideas | Data
Рет қаралды 3,6 М.
Positional embeddings in transformers EXPLAINED | Demystifying positional encodings.
9:40
AI Coffee Break with Letitia
Рет қаралды 74 М.
Vectoring Words (Word Embeddings) - Computerphile
16:56
Computerphile
Рет қаралды 304 М.
Curso de Procesamiento del Lenguaje Natural (NLP) | Tus propios Embeddings Word2Vec en Python | E14
32:42
A Beginner's Guide to Vector Embeddings
8:29
Colin Talks Tech
Рет қаралды 42 М.
VIP ACCESS
00:47
Natan por Aí
Рет қаралды 30 МЛН