🔴REDES NEURONALES CONVOLUCIONALES - PORQUÉ FUNCIONAN (MATEMÁTICAS)

  Рет қаралды 5,260

Xpikuos

Xpikuos

Күн бұрын

REDES NEURONALES CONVOLUCIONALES CNNs en IA y MACHINE LEARNING: PORQUÉ FUNCIONAN (MATEMÁTICAS)
Explicaremos las REDES NEURONALES CONVOLUCIONALES CNN desde un punto de vista teórico entrando en las matemáticas, y descubriremos cómo los filtros y las convoluciones al final se comportan como perceptrones.
▶ SUSCRÍBETE Y DALE A LA CAMPANITA:
www.youtube.co...
▶ Sígueme y suscríbete en Twitch ( / xpikuos ) , donde podrás verme casi a diario, programando IA, ML, montando y diseñando partes del robot Bally2.0 del canal, construyendo el mundo de Xpikuos en Minecraft (Xpikuos-Land), editando y grabando los vídeos de KZbin...
Y aquí están los canales de Xpikuos. SUSCRÍBETE a aquellos que te gusten (y no olvides darle a la campanita para recibir los avisos):
▶Xpikuos-IA (para aprender IA en profundidad): www.youtube.co...
▶Xpikuos-Robots (para aprender Robótica en profundidad): www.youtube.co...
▶Xpikuos-Fun (IA y Robótica con humor): www.youtube.co...
▶Xpikuos (para aprender cómo hacer Robots con IA): www.youtube.co...
▶SÍGUENOS en las REDES SOCIALES:
Facebook: / xpikuosiapararobots
Twitter: / xpikuos
www.pinterest....
▶Únete al grupo de Discord para el desarrollo del nuevo modelo del robot Bally del canal pinchando en este enlace: / discord
#comoHacerRobotsConInteligenciaArtificial
#inteligenciaArtificial
#xpikuos
▶VIDEOS de XPIKUOS - INTELIGENCIA ARTIFICIAL (explicaciones formales sobre diferentes temas y ramas de la I.A.)
• 🔴CURSO de LÓGICA BORRO...
▶VIDEOS sobre NEUROCIENCIA vs INTELIGENCIA ARTIFICIAL
• 🔴CEREBRO vs INTELIGENC...
▶VIDEOS de XPIKUOS - MINDNETIONS (cómo hacer robots emocionales e inteligentes que comparten su conocimiento en red)
• 🔴INTELIGENCIA ARTIFICI...
▶VIDEOS de XPIKUOS - ARTIFICIAL INTELLIGENCE - MIX
• Video
▶INFORMACIÓN sobre XPIKUOS (¿qué es?, bases de concursos,...)
• Video
▶WEB de XPIKUOS con TODA la INFORMACIÓN (aún en construcción):
www.xpikuos.org
En esta web se irá colocando información que complemente a los videos.
▶WEB de MINDNETIONS para todos los experimentos de ROBÓTICA e INTELIGENCIA ARTIFICIAL:
www.mindnetion...
▶WEB de la TIENDA (aún en construcción):
www.mindnetion...
Deja tus comentarios sobre los productos que te gustaría que tuviera la tienda en un futuro.
▶Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí:
scenio.es/colab...
#Scenio

Пікірлер: 46
@eldelarechorga
@eldelarechorga 5 жыл бұрын
Muchas gracias amigo. Excelente explicación
@Xpikuos
@Xpikuos 5 жыл бұрын
Gracias! Me alegro que te guste. No olvides darle a LIKE y compartirlo en las redes sociales. Además te recomiendo que te SUSCRIBAS a los NUEVOS CANALES en los que se dividirá Xpikuos. Xpikuos-IA: kzbin.info/door/U5wcBa5NKUBlzkC2rq3O2g Xpikuos-Robots: kzbin.info/door/jp-bmm7X8n3hKPj7HPbhdg Xpikuos-Fun: kzbin.info/door/VTdb_UIRwwhKWNdVAvj9Ww Gracias :)
@anibalignacioventura
@anibalignacioventura 5 жыл бұрын
Bien explicado, me quedo super clara la relación con las NN
@Xpikuos
@Xpikuos 5 жыл бұрын
Me alegro :) No olvides darle a LIKE al vídeo y compartirlo en las redes sociales
@DONROBOTZ
@DONROBOTZ Жыл бұрын
Increíble el vídeo .Muchas gracias
@Xpikuos
@Xpikuos Жыл бұрын
Me alegro que te guste. No olvides darle a LIKE y compartirlo en las redes sociales. Gracias :)
@belisariojuniordelamatabel5694
@belisariojuniordelamatabel5694 6 жыл бұрын
Excelente, esta es la parte wow del por qué se dan las cosas. En este tipo de conceptos y conocimiento es donde se nota la diferencia de tu canal... enseñar las cosas como son para no ser sólo ejecutores ciegos de programas y procedimientos.
@Xpikuos
@Xpikuos 6 жыл бұрын
Muchas gracias! Es muy agradable ver que se reconoce el esfuerzo que hago por explicar aquello que normalmente no se explica, o hacerlo desde un punto de vista diferente.
@felipecastanedaarellano4583
@felipecastanedaarellano4583 2 жыл бұрын
Excelente forma de explicar, muchas gracias
@Xpikuos
@Xpikuos 2 жыл бұрын
Gracias. Me alegro que te haya gustado. No olvides darle a LIKE al vídeo, compartirlo en las redes sociales y suscribirte al canal. Gracias ;)
@JorgeDiaz-lo1yd
@JorgeDiaz-lo1yd 2 жыл бұрын
Muy bien explicado, muchas gracias. Podrías explicar como se hace la propagación hacia atrás matemáticamente de igual manera que has hecho la propagación hacia delante? Estoy loco buscando la manera pero no lo encuentro por ningún lado. Muchas gracias
@Xpikuos
@Xpikuos 2 жыл бұрын
Uyyyy... Ese es un tema que tengo pendiente y del cual no saco un vídeo en condiciones porque no encuentro una froma de explicarlo que me agrade... Algún díalo haré... Por cierto, no olvides darle LIKE al vídeo, compartirlo en las redes sociales y suscribirte al canal. Gracias :)
@g8kN
@g8kN 3 жыл бұрын
Hola buenas. Excelente vídeo. Lo unico que no me quedó claro es por qué se requiere una no linealidad a la hora aplicar la función de activación ReLU. Gracias
@Xpikuos
@Xpikuos 3 жыл бұрын
La explicación del porqué se requiere una no linealidad viene aclarada en los vídeos de este mismo canal sobre el perceptrón ;). No olvides darle a LIKE y compartir el vídeo en las redes sociales ;)
@josejaviermarticamarasa5744
@josejaviermarticamarasa5744 2 жыл бұрын
Excelente Video. Yo lo he puesto en el Master de Ciencia de Datos de la UOC(Universitat Oberta de Catalunya)
@Xpikuos
@Xpikuos 2 жыл бұрын
Oh! Muchas gracias. Te recomiendo que le eches también un vistazo al último vídeo sobre las Redes Neuronales Recurrentes y al de los Embeddings ;)
@josejaviermarticamarasa5744
@josejaviermarticamarasa5744 2 жыл бұрын
@@Xpikuos Los embedings es para NLP, verdad?
@Xpikuos
@Xpikuos 2 жыл бұрын
Sí, pero con imaginación también se pueden usar para otras cosas ;)
@lutheralreim
@lutheralreim Жыл бұрын
Creo que hay algo mal, porque la salida de una red convolucional como la que muestras no es de 1d sino de 2d, a diferencia del perceptrón del ejemplo que entrega el resultado en 1d
@Xpikuos
@Xpikuos Жыл бұрын
Claro que una convolución 2D da como resultado otra salida 2D. A lo que me refiero en el vídeo es que, conforme se va desplazando "el filtro" al ir haciendo la convolución, da como resultado un único valor. Pero no hay que olvidar que ese filtro se mueve, punto por punto, por toda la matriz 2D de la entrada, por lo que el resultado es 2D. No sé si me entendió, y de ahí tu duda...
@lutheralreim
@lutheralreim Жыл бұрын
@@Xpikuos exactamente, en el video no se entendió como se construye la salida en 2d, sino que da la impresión que tiene una salida de 1d con un unico valor generado de la fórmula
@Xpikuos
@Xpikuos Жыл бұрын
Bueno, pues entonces queda aclarado aquí ;)
@MsGuitarrista1999
@MsGuitarrista1999 5 жыл бұрын
Yo tengo una duda... entiendo que cada uno de los filtros actue como perceptron y realice la convolución en la imagen de entrada, pero si al final de la red se obtiene una imagen que es a la que se le aplica el flatenning y la cual alimenta a los perceptrones que dan la salida final... como hago para obtener una sola imagen a partir de todas las anteriores imágenes... es decir como converge la red? ://
@Xpikuos
@Xpikuos 5 жыл бұрын
No entiendo bien qué quieres decir con "como hago para obtener una sola imagen a partir de todas las anteriores imágenes". Sobre la "convergencia de la red", supongo que te refieres a cómo aprende la red... La red aprende aplicando el algoritmo del backpropagation, el cual es básicamente, minimizar el error entre la salida obtenida y la deseada (o sea, hacer la derivada de dicho error e igualarlo a cero, y aplicar la regla de la cadena en dicho proceso para ajustar los pesos de cada capa, capa por capa, desde la salida hacia la entrada)... (No sé si era esto lo que me preguntabas). Por cierto, no olvides darle a LIKE y compartirlo en las redes sociales. Además te recomiendo que te SUSCRIBAS a los NUEVOS CANALES en los que se dividirá Xpikuos. Xpikuos-IA: kzbin.info/door/U5wcBa5NKUBlzkC2rq3O2g Xpikuos-Robots: kzbin.info/door/jp-bmm7X8n3hKPj7HPbhdg Xpikuos-Fun: kzbin.info/door/VTdb_UIRwwhKWNdVAvj9Ww Gracias :)
@josecarrasco9840
@josecarrasco9840 5 жыл бұрын
Muy bien explicado. Saludos.
@Xpikuos
@Xpikuos 5 жыл бұрын
Me alegro que te haya gustado :) No olvides darle a LIKE y compartirlo en las redes sociales :)
@roquexsiempre
@roquexsiempre 6 жыл бұрын
Didáctico, XPIKUOS el siguiente paso es la codificación en tensorflow u otro para demostrar la teoría, quisiera que me recomiendes un sitio donde se demuestra la arquitectura de Lennet de Yann Lecun.
@Xpikuos
@Xpikuos 6 жыл бұрын
Lo haremos con Keras que es más fácil y rápido :)
@datexland
@datexland 6 жыл бұрын
@@Xpikuos Gracias por tu aporte , esperare atento el funcionamiento de Keras..
@Xpikuos
@Xpikuos 6 жыл бұрын
Ok. Tranquilo que todo llega, pero cuando veais la implementación en Keras os vais a llevar una desilusión (o una grata sorpresa, dependiendo de lo que le guste a cada uno)... son 5 líneas de código!!!
@datexland
@datexland 6 жыл бұрын
@@Xpikuos ya he trabajado con keras un poco y me ha gustado solo me falta entender un poco mas las funcionalidades y ventajas de usar Dropout y la capa Dense asi como la arquitectura de mi red para cada ejercicio en particular.....
@Xpikuos
@Xpikuos 6 жыл бұрын
La capa Dense es un perceptrón, así que mírate todos los vídeos del canal sobre el perceptrón para entenderlo a fondo. Lo del Dropout consiste en "desactivar" un porcentaje de neuronas durante el proceso de aprendizaje para evitar el overfitting.
@mayramateo8556
@mayramateo8556 3 жыл бұрын
A qué se refiere con patrones linealmente no separables?
@Xpikuos
@Xpikuos 3 жыл бұрын
Si bien lo correcto sería hablar de clases linealmente separables o no separables, intentaré explicarte brevemente lo que son. Imagínate que tienes N patrones que pertenecen a la clase A, y otros M patrones que pertenecen a la clase B. Supongamos que los patrones se pueden representar en el plano (o sea, en 2 dimensiones). Pues bien, si se puede trazar una línea que separe claramente los patrones de la clase A de los de la clase B, entonces se dice que las clases son linealmente separables. Si esto no es posible, se habla de clases linealmente no separables. Espero que te haya quedado claro.
@rubengarcia-xt9qe
@rubengarcia-xt9qe 5 жыл бұрын
hola profesor, te hice esta pregunta en el primer video...pero si yo tengo multiples imagenes para entrenar la red, las entradas serán todas las imágenes o es que cada imágen genera las entradas que luego son covolucionadas? y lo otro si defino n cantidad de filtros, estos se aplican de manera secuencial?, es decir...el primer filtro recorre toda la imagen y genera una matriz a la que luego le aplico el segundo filtro y asi sucesivamente esta utilizar todos los filtros?...y si fuese asi, es una sola capa la que procesa todos esos filtros cuando yo la parametrizo de esa manera?
@Xpikuos
@Xpikuos 5 жыл бұрын
- Lo primero: tú no parametrizas ningún filtro (es decir, tú no fijas a mano los valores de los coeficientes de los filtros; eso lo hace el backpropagation) - Cada imagen, por separado, se aplica a la entrada de la red neuronal - Cada imagen es convolucionada por los N filtros que generan su valores correspondientes - Si se quiere, se pueden añadir otra capa de filtros que procesen los resultados devueltos por la capa anterior (esto ya depende de la estructura que se quiera montar, y es cuestión de probar) - No merece la pena ponerse a programar todo esto. Para eso ya está, por ejemplo, Keras... Espero que te haya servido ayuda...
@Xpikuos
@Xpikuos 5 жыл бұрын
A ver... si a "parametrizar" lo llamamos "indicar el número de filtros, tamaño, padding, etc..." ok. Pero no olvides lo importante: los valores de los coeficientes del los filtros no se los tienes que dar tú: se calculan automáticamente durante el entrenamiento ;) ... y bueno, si tienes que hacerlo con TF, pues bueno... :)
@stecklerdav
@stecklerdav 6 жыл бұрын
Excelente, un saludo.
@Xpikuos
@Xpikuos 6 жыл бұрын
Gracias :)
@DONROBOTZ
@DONROBOTZ Жыл бұрын
Ahora entiendo cositas
@Xpikuos
@Xpikuos Жыл бұрын
Me alegro :) No olvides darle a LIKE al vídeo y compartirlo en las redes sociales. Gracias :)
@mariadelosangelescosioleon8508
@mariadelosangelescosioleon8508 5 жыл бұрын
wowwwwww
@Xpikuos
@Xpikuos 5 жыл бұрын
Gracias! Me alegra ver que te ha sido clarificador el vídeo. No olvides darela aLIKE y compartirlo en las redes sociales :) Por cierto, te recuerdo que puedes SUSCRIBIRTE a los NUEVOS CANALES en los que se dividirá Xpikuos (por lo menos, a aquellos que más te interesen): Xpikuos-IA: kzbin.info/door/U5wcBa5NKUBlzkC2rq3O2g Xpikuos-Robots: kzbin.info/door/jp-bmm7X8n3hKPj7HPbhdg Xpikuos-Kids: kzbin.info/door/VTdb_UIRwwhKWNdVAvj9Ww Ahora mismo están vacíos, pero, poco a poco, se irá subiendo allí el nuevo contenido con la nueva estética y filosofía/metodología formativo-divulgativa del canal. Esa es la lista para que te suscribas a ellos (pero SIGUE SUSCRITO A ESTE CANAL porque será el que relacione todos ellos y donde iré dando los avisos de los nuevos contenidos de esos nuevos canales). Gracias :)
@pptmtz
@pptmtz 9 ай бұрын
buena explicación, mala edición, ojalá pudiera sacar una versión actualizada
@Xpikuos
@Xpikuos 8 ай бұрын
Lo sé, pero siempre me ha dado un poco de miedo volver a subir el vídeo (aunque sea mejorado, claro está...). Pero es una espinita que tengo clavada...
🔴REDES NEURONALES CONVOLUCIONALES CNN en IA: TEORÍA
20:32
La CONVOLUCIÓN en las REDES CONVOLUCIONALES
6:54
Codificando Bits
Рет қаралды 22 М.
👉🔴 RED NEURONAL ADALINE vs PERCEPTRÓN + HOPFIELD
20:50
Neural Network Architectures & Deep Learning
9:09
Steve Brunton
Рет қаралды 811 М.
Татьяна Черниговская ("Как научить мозг учиться?")
1:33:57
Проект Открытое пространство
Рет қаралды 11 МЛН
Tipos de redes neuronales
7:15
AMP Tech
Рет қаралды 45 М.
Reconocimiento de imágenes con IA - 01 - Convoluciones y filtros
13:53
Neural Networks - Backpropagation
10:16
BitBoss
Рет қаралды 28 М.