Muchas gracias por facilitar esta información (como los otros vídeos) de esta materia en español y de forma tan accesible.
@LaHoraMaker6 ай бұрын
Gracias a ti por tu comentario!
@ser123696 ай бұрын
Muchas gracias !! por este increible contenido
@LaHoraMaker6 ай бұрын
Mil gracias por comentar!
@juanjesusligero3916 ай бұрын
¡Fantástico vídeo, como siempre! ^^ Por cierto, ahora que ha salido Llama-3, sería genial que grabases un tutorial explicando cómo finetunearlo o entrenar un LORA (de una versión cuantizada, Q4 por ejemplo, para que más gente pueda hacerlo), y preferiblemente explicándolo todo paso a paso, sin saltar nada (desde la creación o preparación del dataset hasta la inferencia desde el modelo o el LoRA entrenados). ¡Ojalá te guste la idea! :D
@LaHoraMaker6 ай бұрын
Primero voy a publicar uno sobre cómo probar llama-3 tanto si tienes GPU como si no, y luego nos ponemos con el finetuning!
@juanjesusligero3916 ай бұрын
@@LaHoraMaker ¡Estupendo! :D
@SonGoku-pc7jl6 ай бұрын
muchas gracias por estas infos tan buenas!
@GoodSapiens6 ай бұрын
De nuevo, mil gracias por la maravillosa inciativa y el contenido que nos facilitas a las personas que te seguimos. En otro de tus videos vimos como la AI utilizando modelos en abierto podía identificar elementos de una foto y en este vídeo como interactuar con contenido online. Combinando ambas ideas me surge una pregunta: ¿es posible o será posible utilizar modelos abiertos y que, igual que súbiamos una foto, podamos subir documentos y que combine las capacidades del LLM y de los documentos en el contexto y en la respuesta del _prompt_? Mil gracias por todo lo valioso que aportas.
@cbanow6 ай бұрын
Si .... excelente video como siempre !!!! Habria alguna forma de cambiar el LLM modelo ......ya que el que utiliza es realmente pesado para la mayoria de las PC, quizas con una versión cuantizada, Q4 por ejemplo, o directamente otro como mistral para que corra mejor !!!!
@LaHoraMaker6 ай бұрын
En el menú de la esquina superior derecha te detecta los modelos que tienes instalados. Si eliges uno más liviano debería cargártelo sin problemas
@cbanow6 ай бұрын
@@LaHoraMaker Muchas Gracias !!! Exactamente lo que estaba buscando !!!!!..... De nuevo Felicitaciones por el contenido de tus videos,... mucho mas detallado y preciso, y directamente al grano, mucho mejor que la mayoria de similares en Ingles !!........Son todo un privilegio para lo que hablamos Español !!!!!!
@hellracer06 ай бұрын
Olé ahi mi querido señor barbudo. Es usted un crack
@piero_09126 ай бұрын
genial, justo estoy haciendo tareas con modelos de lenguajes y descubri este canal, la verdad contenido de este tipo y con esa claridad no hay mucho en español,tenia una duda, sabes de algun modelo de para entender texto? actualmente estoy haciendo un buscador semantico y uso bert para extraer vectores del texto pero no es suficente para entender oraciones aveces mal redactadas o que son redundantes ,mi otro plan seria usar la api de chatgpt o usar algun otro modelo similar atraves de lm studio pero no se si tal vez por mi faltas de conocimiento me este saltando alguna otra solucion
@LaHoraMaker6 ай бұрын
Justo estuve hablando esta semana con el desarrollador del buscador este sobre modelos de embeddings multilingües. En su caso decidió probar con los embeddings de Nomic (que pueden usarse en Ollama directamente). En el hilo del Github tienes todos los detalles del modelo que mejor funcionan en multilingüe con la licencia abierta: github.com/nilsherzig/LLocalSearch/issues/49
@piero_09126 ай бұрын
@@LaHoraMaker muchas gracias
@daniwarindie6 ай бұрын
Parece interesante
@r4m32006 ай бұрын
Hola buenas, una pregunta que modelo en lm studio recomiendas para programas en python ?
@LaHoraMaker6 ай бұрын
Dale un vistazo a este leaderboard con los modelos evaluados para programación de mejor a peor: evalplus.github.io/leaderboard.html Está bastante actualizado y el mejor abierto suele ir variando con el tiempo
@erikamoonreeves64626 ай бұрын
Te paso un like... ..
@jcrm57626 ай бұрын
Sos un maestro. Me gustaría más adelante contactaros tengo en mente unos proyectos y me gustaría contar con su guía y sapiencia maestro Maker... Por lo demás felicitaciones por el buen contenido👍🏼
@cristianquiroga760911 күн бұрын
hola hay alguna forma de usarlo con el proyecto strom de stanford?
@insecureup6 ай бұрын
Me funciona fatal, pero la idea es muy buena. gracias por el video
@LaHoraMaker6 ай бұрын
¿Te ocurre sobre todo al buscar en español? ¿O con cualquier tipo de búsqueda? ¿Estás probando con el modelo por defecto o con algún otro?
@luismoroco49726 ай бұрын
Una pregunta @hora maker y acompañantes saben de casualidad de algun modelo para ollama que funcione en vision o captions? he probado llava y no puede con ocr seimpre lee cosas distintas, de hecho inventa aún con temperatura cero. mil gracias pd sugiero preguntar en ingles y pedir traducir el resultado a español, saludos y gracias por tus videos.
@LaHoraMaker6 ай бұрын
De los modelos abiertos que he probado el mejor para este tipo de tareas ha sido Qwen-VL. Ahora bien, no está disponible en Ollama, sino que hay que cargarlo con Transformers. Tienes aquí un notebook de ejemplo: github.com/elsatch/awesome-multimodal-experiments/tree/main/Notes2JSON
@luismoroco49726 ай бұрын
@@LaHoraMaker mil gracias! Lo probaré
@Javier_Espinoza3 ай бұрын
Muy buen video, y se puede hacer con phi 3?
@LaHoraMaker3 ай бұрын
Hola Javier, Muchas gracias por tu comentario. En principio se podría hacer con cualquiera de los modelos que soporta Ollama, incluido Phi3. Ya nos contarás qué tal los resultados!
@canaljoseg01726 ай бұрын
🤔 Para que no ocurra ese salto cuando va escribiendo, se coloca el objeto dentro de otra división y mediante JavaScript se hace un desplazamiento inteligente.
@LaHoraMaker6 ай бұрын
Gracias por el comentario Jose. Creo que lo han resuelto en la última release!
@zuone196 ай бұрын
has probado open devin???
@LaHoraMaker6 ай бұрын
No, de momento sólo he probado Devika y Cosel. Todavía no he encontrado uno que funcione demasiado estable como para contarlo (sin que sea compartir un poco el sufrimiento de hacer que funcione :D )
@zuone196 ай бұрын
Te preguntaba porque estoy intentando hacer funcionar open Devin con ollama y está siendo interesante por llamarlo de alguna manera jajaja
@corleone20096 ай бұрын
sigues empecinado con la pandemia y COVID-19.... Te quedaste traumatizado?😷
@LaHoraMaker6 ай бұрын
Bueno, sobre todo lo utilizo para detectar hasta que punto los modelos son capaces de incorporar información específica y de localizar referencias. En muchos casos los modelos más pequeños incorporan alucinaciones en la respuesta. Esto es muy fácil de fechar con este prompt. También como lo llevo utilizando desde el principio, así se puede comparar la salida entre los modelos distintos. ¿Tienes alguna otra sugerencia para preguntar a los distintos modelos? ¡Soy todo oídos!
@corleone20096 ай бұрын
@@LaHoraMaker Vale, el fundamento que cometas tienes su coherencia. Acabas de cerrarme la boca👍.
@corleone20096 ай бұрын
@@LaHoraMaker muchísimas gracias por compartir tus conocimientos. 👍
@LaHoraMaker6 ай бұрын
@@corleone2009 Encantado de seguir aprendiendo junto a todos vosotros!
@Alex291966 ай бұрын
Muchos quedaron afectados, especialmente aquellos que perdieron a sus seres queridos. Continúa utilizando la IA para educarte mejor.