Hola Nechu, hice los 3 ejercicios por mi cuenta, y los 3 resultados fueron exactamente como los esperados. jeje En la parte de MODA, yo utilize un Diccionario donde puse los Precios como clave y el ''count" como valor. El precio mas repetido, se repite 5 veces. soy Novato en programacion y estoy sorprendido de lo que hice. Jjaaajaja Esta es la parte que me guarda las claves y las veces que se repiten: def busc_moda(data): moda_key = 0 dc_moda={} #dictionatio con conteo de valores for i in data: if round(i) in dc_moda: dc_moda[round(i)]+=1 else: dc_moda[round(i)]=1 Gracias broo!!
@Elmer_curio7 күн бұрын
me reporto, Te veo desde Republica Dominicana. ❤❤ por si te sirve para tu estadisticas 😆👍 gracias por estos videos !!!!
@NechuBMКүн бұрын
¡Bonita tierra! Tengo muchas ganas de visitar RD algún día. ¡Gracias por el mensaje!
@henrysaurarodriguez17638 күн бұрын
Articula más las palabras que no se te entiende nada bro
@Randomize-md3bt8 күн бұрын
pero como le hago para ver los archivos python o saber como entrenaron los modelos desde 0? en los repositorios de github solo vienen archivos .json o .txt, no vienen archivos python .py
@NechuBMКүн бұрын
Por lo general, no es común encontrar el código para entrenar un modelo desde cero. Lo que suelen compartir en los repositorios es el modelo ya entrenado, junto con archivos de configuración o datos de ejemplo. Sin embargo, puedes encontrar información sobre cómo realizar fine-tuning o ajustar el modelo a tu caso de uso específico. Encontrar el código completo de entrenamiento desde cero es poco común, pero tal vez con una búsqueda más profunda puedas conseguirlo
@Elmer_curio8 күн бұрын
Gracias hermano. Estudio ing computacional y ya cursé Estadistica y me fue bien, pero no desde estas herramientas como python y sus librerias, etc... Por eso estoy aqui 🍷👋
@NechuBMКүн бұрын
¡Qué bueno! Con tu base en estadística, te será más fácil comprender los conceptos y podras enfocarte más en la programación con Python y sus librerías. ¡Bienvenido!
@josebienvenidorivasperez630011 күн бұрын
me suscribo al canal esperando aprender mucho, tengo conocimiento nullo en estadistica, tengo mucho animo de que aprendere
@NechuBMКүн бұрын
¡Bienvenido! Lo más importante es tener ganas de aprender, y aquí encontrarás contenido explicado de forma sencilla para que puedas avanzar paso a paso. No te preocupes por no tener conocimientos previos en estadística, ¡para eso hice el curso!
@Randomize-md3bt12 күн бұрын
buen video, hace 2 años me gusto esta area de la inteligencia artificial y me meti a hugging face con 0 conocimientos de IA/data scientist, y fue un dolor de cabeza entender la plataforma en especial los tokenizadores jajsejaja. Ahora con tu tutorial me he animado a volver aprender de este campo
@NechuBMКүн бұрын
¡Qué buena noticia! La documentación y los ejemplos han mejorado mucho con el tiempo, lo que facilita entender la plataforma. Espero que con estos videos el proceso te sea mucho más sencilloi. ¡Ánimo!
@javierayael887412 күн бұрын
Hola! Gracias por la explicacion! Una duda, con la "e" te refieres al numero de euler: 2,71828? Me quedo esa duda porque al elevar la constante utilizas dos numeros distintos en los dos casos
@NechuBMКүн бұрын
¡Exactamente! La 'e' se refiere al número de Euler: 2.718. No estoy seguro de entender completamente tu pregunta. ¿A qué dos casos te refieres? Cuando realizamos el cálculo con z = 100 y z = -100 obtenemos directamente los resultados 3.720^-44 y 2.6811*10^43 Es importante no confundir estos valores con la constante 'e', ya que son los resultados de la función aplicada a esos valores de z.
@77primus19 күн бұрын
Nechu hola, no me quedó claro en el Pipeline, cual fué el modelo que elegiste ni la configuración de parámetros iniciales porque empiezas de una vez a correr la instrucción previamente configurada (por lo que veo y entiendo en el video) Como se hace eso?
@NechuBMКүн бұрын
La librería, por defecto, tiene un conjunto de parámetros preconfigurados, incluido el modelo. Si no especificamos un modelo, la librería selecciona automáticamente uno predeterminado, que en este caso es 'distilbert-base-uncased-finetuned-sst-2-english'. Es lo que vemos en el vídeo. El uso de parámetros predeterminados facilita el trabajo a los usuarios, ya que permite comenzar rápidamente sin necesidad de configurar cada detalle manualmente.
@Jesusrhivan22 күн бұрын
Excelente explicación. Muchas gracias Nechu
@NechuBMКүн бұрын
¡Gracias!
@geografiaeducativa272722 күн бұрын
Ubuntu tiene cierto tiempo que se alejó del término Libre...
@yonvay542425 күн бұрын
20/10 Se resolvieron todas mis dudas respecto al artículo, muchas gracias.
@yonvay542425 күн бұрын
Todo perfectamente explicado como en el artículo, pero al igual que en el artículo... En la arquitectura del multi-head aparece un <concat>, entonces. Seria un vector de contexto concatenado con el numero de vectores salientes de cada cabeza... Pero, mi duda es: ¿Cuando se dice que se hace 6 veces, me genera 18 vectores de contexto? Porque "soy de malaga" son 3 palabras.
@coleer91028 күн бұрын
Esta herramienta una ves la haya usado seguira siendo gratis??? O como sé cuando me empezará a cobrar? 😢
@NechuBM25 күн бұрын
El video es completamente gratuito, y el código que muestro es de código abierto, lo que significa que cualquiera puede usarlo y desarrollar su propia herramienta sin costo. Lo único que tendría un costo es el servicio de ChatGPT, dependiendo del plan que elijas usar.
@AdirelMon28 күн бұрын
Muy bien video porfesor una pregunta como podría entrenar un modelo que mediante atractivos turísticos me de una ruta de destinos acorde a las preferencias del usuario y donde podría obtener información para poder hacer eso
@NechuBM25 күн бұрын
Más que entrenar un modelo desde cero, lo que necesitas es utilizar una técnica llamada Retrieval Augmented Generation (RAG). Entrenar un modelo suele ser útil para ajustar cosas como el tono o el vocabulario de las respuestas. Sin embargo, en tu caso, parece que quieres usar información externa, como guías de turismo, para generar respuestas más personalizadas y útiles. RAG es ideal para esto, ya que combina información adicional con las capacidades del modelo para crear respuestas contextualmente más ricas. Básicamente, permite al modelo acceder a datos relevantes al momento de generar una respuesta, en este caso, información sobre atractivos turísticos y preferencias del usuario. Te comparto un video donde explico cómo implementar esta técnica paso a paso: kzbin.info/www/bejne/n3XVoZehfq2Ap5o Espero que te sea útil. ¡Éxito con tu proyecto!
@AdirelMon25 күн бұрын
@@NechuBM Muchas Gracias profe por responder el comentario, me sentía un poco perdido espero solucionar esto y que el proyecto salga con éxito. Revisare el video y lo tendré en cuenta. Bendiciones y saludos. Siga así profe enseñando y compartiendo sus conocimientos ha personas que aun estamos entrando en este mundo.
@SoyDev_122 күн бұрын
@@NechuBM Profe me pareció perfecto el video, pero una duda con este comentario al utilizar la técnica de RAG el modelo quedaría cargado con esos datos extra? O siempre tendríamos que mandar los datos (PDF, guías de turismo) O hacer el modelo con los datos de los PDF o guías Cual opción seria mas rentable ?
@mauespinolaАй бұрын
muchísimas gracias. Es muy clara la explicación. Lo mas sencilla explicación, a pesar de que es compleo
@NechuBMАй бұрын
¡Ese es el objetivo! Muchas gracias por el mensaje
@mauespinolaАй бұрын
muy claro, gracias
@TheCiubuxАй бұрын
Gracias, me ha ayudado bastante
@NechuBMАй бұрын
¡Qué bueno! Nos vemos en los próximos vídeos.
@FR87666Ай бұрын
Puedes explicar para consideras mas de un pdf para que pueda consultar sobre temas relacionados en los Pdf
@NechuBM25 күн бұрын
Si quieres trabajar con más de un documento, te comparto este video donde explico paso a paso cómo hacerlo: kzbin.info/www/bejne/l5XUYXV8rbZneZI Además, en el video también muestro cómo usar una base de datos vectorial, que es una herramienta muy útil para mejorar el rendimiento del proyecto. Con esto podrás buscar temas relacionados en todos los documentos de forma más eficiente, ya que la base de datos vectorial permite organizar y encontrar información relevante rápidamente. ¡Espero que te sirva!
@FR87666Ай бұрын
Excelente, muy buen video
@NechuBM25 күн бұрын
¡Gracias!
@DulmisFernándezCurielАй бұрын
Vffg
@RobertVirona-l1gАй бұрын
Mil gracias por tu aporte
@NechuBMАй бұрын
¡Un placer!
@nachobateroАй бұрын
Genial!!
@NechuBMАй бұрын
¡A por todas!
@nachobateroАй бұрын
Excelente! taba perdido en la pag
@NechuBMАй бұрын
Al principio, puede ser un poco confuso. Espero que estos vídeos te ayuden a sacarle el máximo partido a la plataforma.
@mariodelgado165Ай бұрын
Nechu me he echo sub muy buenas tus explicaciones gracias por compartir
@NechuBMАй бұрын
¡Qué bueno! Cualquier pregunta no dudes en compartirla en los comentarios
@Aurelia_skoolАй бұрын
Que bueno!
@NechuBMАй бұрын
Una gran herramienta, espero que los vídeos te ayuden a sacarle el máximo beneficio
@DianaMrozekАй бұрын
Hola! Excelentes tus videos. Me podrías aclarar por favor si el "estado oculto" es un "embedding"? Gracias
@marcelodanielkowalczuk3034Ай бұрын
En un faceswap genero un video pero cuando quiero descargarlo el botòn de descarga ya no està. Còmo puedo acceder al archivo creado? Gracias.
@NechuBM25 күн бұрын
Esto puede depender de cómo estás generando el video. ¿Estás usando algún Space de HuggingFace o alguna otra herramienta específica?
@rusbelbermudez2382 ай бұрын
Muy buen video y contenido
@NechuBMАй бұрын
Gracias 🎉💃
@KaliNikos2 ай бұрын
Hola, no veo la información adicional que comentas para las "matematicas" de la codificacion posicional en el momento 8:05. Felicitaciones, por la buenísima explicación.
@senoranonimo58642 ай бұрын
CONTENIDO DE PURA CALIDAD NUEVO SUB
@NechuBMАй бұрын
¡Gracias! 🎉
@carlosandresmontanezvalade82332 ай бұрын
Buen dia, alguien sabe porque cuando proceso el archivo pdf obtengo este error "ImportError: Could not import sentence_transformers python package. Please install it with `pip install sentence-transformers`."
@NechuBM25 күн бұрын
Este error ocurre porque el código requiere la biblioteca sentence-transformers. Para solucionarlo, ve a la sección de 'Embeddings' y ejecuta la celda que contiene el siguiente comando:"!pip install sentence-transformers==2.2.2"
@elkyngustavodiosamartinez26262 ай бұрын
Gracias crack!
@NechuBM2 ай бұрын
¡Un placer!
@jeisonpantoja17912 ай бұрын
He estado buscando información sobre el tema y me he encontrado con tu canal. Te felicito, excelentes tutoriales. Aprovecho para preguntar algo que no me queda claro: ¿por qué cargar los archivos en la memoria temporal? Es una cuestión de Python? Hice una pequeña prueba hace unos días, pero no hice ese carga temporal.
@NechuBM2 ай бұрын
No tienes más opción que usar una base de datos externa si quieres que los datos se guarden de manera persistente. Si usas la memoria temporal de Python, los datos solo estarán disponibles mientras la 'sesión' esté activa. Cada vez que reinicies el programa, tendrás que volver a cargar los documentos, lo cual puede llevar mucho tiempo si son muchos. Si estás en fase de desarrollo y solo necesitas hacer pruebas rápidas, cargar los documentos en memoria temporal puede ser útil porque te permite iterar más rápido. Sin embargo, en una aplicación real necesitas una base de datos externa para guardar todos los documentos de forma persistente y asegurarte de que los datos estén siempre disponibles, incluso si reinicias el programa. Espero que la explicación te ayude y cualquier pregunta no dudes en compartirla.
@danielmontoya37332 ай бұрын
Hola Nechu. Una pregunta, en el minuto 7:40, dices que la probabilidad P(10∩Roja) = 2/52, pero si la persona ya nos aseguro de que es una carta roja la que saco, la probabilidad P(10∩Roja) no deberia ser 2/26?.
@ivanpa332 ай бұрын
Excelente presentación.
@NechuBM2 ай бұрын
¡Muchas gracias!
@lucianoolivera38782 ай бұрын
Buenas! Primero, Muchísimas gracias por compartir este gran contenido. Mi duda es la siguiente: Esta serie de cursos me prepara para la parte estadística del análisis de datos , verdad? es decir, la parte de limpieza y transformación de datos debería buscarlo en algún otro curso ? de ser así, abordas esos temas en otros cursos? de cualquier forma hare estos 3 porque son una parte esencial del análisis de datos, pero solo tenia esa duda. Muchas gracias otra vez.
@fernandodiaz82313 ай бұрын
En tu video se muestra que la tarifa de Amazon indica $0.12/hour. Interpreto que se refiere a la tarifa que cobra por el USO calculado en tiempo. Agradeceré tu confirmación.
@NechuBM2 ай бұрын
El costo por hora se aplica mientras el endpoint de Hugging Face esté activo, independientemente de si se realizan solicitudes o no. Esto significa que, aunque no haya uso, se te cobrará por el tiempo que el servicio esté en funcionamiento. Para evitar cargos innecesarios, es recomendable detener o eliminar el endpoint cuando no lo estés utilizando. De todos modos te aconsejo consultar la documentación oficial para obtener más detalles sobre la facturación y gestión de endpoints: discuss.huggingface.co/t/pricing-for-huggingface-endpoint/53456/4
@olddirtysquanchy1924Ай бұрын
Cuando la tarifa de costo dice /hour quiere decir que te cobrarán desde que lo despliegues, es decir si lo tienes 24 horas sin utilizarlo igual lo vas a tener que pagar. Sigue el concepto de los EC2 de AWS
@Grovento3 ай бұрын
¡Geniales videos! ¡Muy enriquecedores¡ Tengo dos preguntas: ¿qué formatos de documentos soporta aparte de pdf? Tengo intriga por markdown y json. Otra cosa: he escuchado muchas bondades de LlamaIndex. ¿cómo se compararía con LangChain y Hugging Face, o incluso Haystack? Muchas gracias
@NechuBM25 күн бұрын
Actualmente, puedes trabajar con una gran variedad de formatos en LangChain, incluyendo PDF, Excel, JSON, Markdown, HTML, CSV, entre otros. Estos formatos pueden procesarse utilizando las herramientas de Document Loaders en LangChain: python.langchain.com/v0.1/docs/modules/data_connection/document_loaders/ LlamaIndex es una excelente alternativa a LangChain, enfocada principalmente en conectar LLMs con fuentes de datos externas. Por otro lado, LangChain tiene un enfoque más holístico, diseñado para construir pipelines y agentes que integren múltiples herramientas y flujos de trabajo.
@georffreyarevalo30673 ай бұрын
Un par de preguntas, que diferencia hay entre la configuración de end points con máquina virtual y la configuración con serverless, de que forma se imcurre en gastos con la configuración de serverless, por otra parte, se puede realizar entrenamientos a partir de modelos de Hugging Face?
@josepb3033 ай бұрын
Gracias, voy. a utilizarlo todo este mes, me gustaria saber donde me puedo comunicar contigo para hacerte una pequeña consulta mas privada.
@NechuBM2 ай бұрын
¡Que bien, espero que puedes desarollar proyectos muy interesantes! Puedes escribirme por LinkedIn: www.linkedin.com/in/daniel-benzaquen-moreno/
@pollocraft30363 ай бұрын
si me salio pero como hago si quiero hallar de varias columnas se que se podria hacer ambas en otro link y otra mas en otro link cargando todo pero como lo hago en un mismo link
@gonzaloponce177753673 ай бұрын
Me encantó el tutorial gracias 🎉
@NechuBM2 ай бұрын
¡Un placer!
@sebastian_cano3 ай бұрын
Muchas gracias, excelente curso.
@NechuBM2 ай бұрын
¡Gracias por el feedback!
@edustreamimg3 ай бұрын
Y como se haria n lugar de texto con audio?
@NechuBM3 ай бұрын
Funciona de manera similar a como lo harías con texto. En lugar de utilizar un modelo que convierte texto a vectores/embeddings, necesitas uno que procese audio y lo transforme en vectores/embeddings. Un buen ejemplo es el modelo facebook/wav2vec2-base, que puedes encontrar en Hugging Face. Este modelo convierte grabaciones de voz en vectores/embeddings, lo que permite trabajar con el audio de la misma manera que vemos en el vídeo.
@sebastian_cano3 ай бұрын
Acabo de descubrir tu canal, y estoy muy contento con la información. He podido adentrarme en este tema y experimentar. Muchas gracias, un saludo desde Colombia
@NechuBM3 ай бұрын
¡Qué chimba colombia! Qué bueno saber que mis vídeos llegan a una tierra tan hermosa y con un café tan delicioso. Espero que aprendas muchos con los vídeos y no dudes en compartir cualquier pregunta que tengas en el canal.
@OrlandoEcheverria-q2z3 ай бұрын
muchas gracias master
@NechuBM3 ай бұрын
¡Un placer!
@OrlandoEcheverria-q2z3 ай бұрын
Muchas gracias me ha servido un montón, justo en mi trabajo me pidieron una demo :).
@NechuBM3 ай бұрын
Qué bueno que te hayan pedido una demo similar, me alegra saber que los videos te han sido útiles. Y si algún día te conviertes en el jefe, ¡no te olvides de invitarme a la celebración! 💃 Mucho éxito con la demo y no dudes en preguntar por los comentarios si necesitas algo más.
@OrlandoEcheverria-q2z3 ай бұрын
@@NechuBM por supuesto que sí :) ijji un grande aprendí demasiado
@juanmanuelmm25703 ай бұрын
hola quiero hacer una aplicacion para mi, y seria que transforme pdf a audiolibros, y mi idea seria que con ocr extraiga las palabras de cada pagina, luego con un modelo valore el texto y extraiga la informacion que no debe estar como son el pie de pagina,numero de pagina el titulo de la pagina y luego extraido pasarlo a audio. tu como crees que deba implementar y que tipo modelo usar para tratar que infiera que texto no deberia estar en esa pagina por ser palabras de pie de pagina o titulo de la pagina. perdon por mucho texto y con que me digas que tipo de modelo se deberia usar me ayudarias mucho o si ya hay algun patron mas facil para hacer eso ya hecho en la comunidad
Como indica el error, es necesario pasar un argumento a get_dummies(), en este caso, el dataframe con el que estés trabajando. Puedes ver en los ejemplos anteriores cómo se hace.