Qué hermosa voz tiene usted. Muchas gracias, saludos.
@jacobavilacamacho76443 жыл бұрын
Hola Priscila, muchas gracias
@jorgegonzalezherrera74572 жыл бұрын
Hola buenas tardes Jacob, ahora cómo se prueba el modelo con nuevos datos para clasificar estos?
@jacobavilacamacho76442 жыл бұрын
Hola Jorge, en el video, el nuevo conjunto de datos, resultante de aplicar el LDA, lo probamos con la regresión logística, para comprobar que las nuevas variables no perdieron información del conjunto original de datos.
@johannagutierrezgaviria10644 жыл бұрын
Hola, muchas gracias por el vídeo, me fue muy útil para entender LDA y hacer la práctica con Python. Me puedes indicar cuantos componentes debería colocar cuando la variable dependiente tiene sólo dos clases? Gracias.
@jacobavilacamacho76444 жыл бұрын
Hola Johanna, Si sólo tienes dos clases, de acuerdo con la documentación de la clase la variable n_components debería ser menor o igual al mínimo entre el número de clases menos uno y la cantidad de variables independientes, min (2-1, n_features). tomando esto en cuenta, n_components tendría que ser 1, por lo que podrías probar con 1 y con 2 para después ver si el modelo predictivo resulta tener buena precisión.
@jacobavilacamacho76444 жыл бұрын
Te dejo también el archivo de datos que yo utilice: saludos drive.google.com/file/d/1GeH8W1zFuq9XH2qaS66JJEXJh2QuO292/view?usp=sharing
@johannagutierrezgaviria10644 жыл бұрын
@@jacobavilacamacho7644 Gracias!! Una pregunta.. tienes algún video o referenciación del uso de pipelines con Scikit-Learn?
@jacobavilacamacho76444 жыл бұрын
@@johannagutierrezgaviria1064 No aún no. Estoy preparando unos nuevos y entre ellos pipelines pero el siguiente es sobre reglas de asociación y el siguiente de redes neuronales con tensorflow y keras
@cMonsalveAdm3 жыл бұрын
Gracias, Prof . recapitulando : para clasificar en grupos se utiliza la regresion logistica o el Arbol de decision o el Naive-Bayes y para reducir la dimensionalidad cuando YA se tienen los grupos definidos se utiliza el analisis discriminante. es correcto?
@jacobavilacamacho76443 жыл бұрын
Es correcto. Aunque para reducir la dimensionalidad puede ser antes de tener los grupos
@lilianagarcia48784 жыл бұрын
Hola, que buen video, muy bien explicado. ¿es posible que puedas compartir la base de Vinos.csv para realizar el mismo ejercicios? Gracias.
@jacobavilacamacho76444 жыл бұрын
Hola Liliana, muchas gracias. Claro que si, te dejo la liga para descargar el archivo: drive.google.com/file/d/1GeH8W1zFuq9XH2qaS66JJEXJh2QuO292/view?usp=sharing
@Valentina-ei9eq3 жыл бұрын
OMG gracias por el comentario, justo andaba buscandolo
@erickcedeno78232 жыл бұрын
Buen video, una consulta, si tengo mas de 2 variables a predecir pero son textos, por ejemplo (van, bus, saab o opel) aún puedo usar el LDA o se tendría que usar FLDA?
@jacobavilacamacho76442 жыл бұрын
Si puedes usar LDA, pero habría que codificar las variables, lo más conveniente es crear variables dummies
@hectorm.marquinan.48723 жыл бұрын
y los archivos de datos de donde los sacas?
@jacobavilacamacho76443 жыл бұрын
Te dejo el link para descargar el de este ejercicio. drive.google.com/file/d/1GeH8W1zFuq9XH2qaS66JJEXJh2QuO292/view?usp=sharing Puedes buscar datasets en Google Dataset y/o en Kaggle
@matheobermudez78474 жыл бұрын
que buen video, muy bien explicado. tengo una pregunta, si tengo solo 2 clases, los componentes se me reducen a 1?
@jacobavilacamacho76444 жыл бұрын
Hola, no necesariamente. Por que no depende de la cantidad de clases, sino de la cantidad de variables independientes. Si sólo tienes 2 variables independientes, no necesitas aplicar la reducción de la dimensionalidad
@ismaeljose87374 жыл бұрын
Hola Excelente video, tal vez podrías adjuntas la base de datos para practicar , tu ejemplo , muchas gracias!
@johannagutierrezgaviria10644 жыл бұрын
Puedes encontrar la base en: archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data
@jacobavilacamacho76444 жыл бұрын
Gracias Ismael por tu comentario. Te dejo el archivo que yo utilice en este ejercicio: drive.google.com/file/d/1GeH8W1zFuq9XH2qaS66JJEXJh2QuO292/view?usp=sharing