LLAMA 3 + Ollama + API

  Рет қаралды 5,463

DavidBU

DavidBU

Күн бұрын

Пікірлер: 20
@DevJulio
@DevJulio 27 күн бұрын
El video mas completo que he visto, gracias. tavlez haga un proyecto pronto y lo voy a grabar
@davidbu8248
@davidbu8248 26 күн бұрын
Gracias espero te sirva
@alejandrobrun
@alejandrobrun 5 ай бұрын
Muy buen video. Gracias por compartir tus conocimientos!
@davidbu8248
@davidbu8248 5 ай бұрын
Gracias Alejandro espero te sirva
@sergioalvaradonunez376
@sergioalvaradonunez376 2 ай бұрын
Hola David, que buen video, gracias por eso. Una consulta, se pueden cargar documentos y que nos responda las cosas de acuerdo a los documentos cargados ya sean pdf, docs o txt? gracias. Saludos.
@davidbu8248
@davidbu8248 2 ай бұрын
Hola Sergio espero andes bien Si claro en esta misma lista hay una playlist con una demo de RAG que se llama RAG + LLAMA 3 (kzbin.info/www/bejne/oqapeYCqltxsps0) Espero te sirva Saludos
@RKSBusinessServicesLLC
@RKSBusinessServicesLLC 2 ай бұрын
Hola David, muchas gracias por el contenido. Una pregunta... Sabes si se puede hacer con el SDK de OpenAI que Llama3.1 acceda a Internet? He preguntado algo sencillo, como el tiempo de una ciudad, y ya vi que no se puede... Pero me surgía la duda para saber si al usar el SDK de OpenAI también podía acceder a ese extra que da OpenAI, o sólo actúa como intermedio... Gracias!
@davidbu8248
@davidbu8248 2 ай бұрын
Hola espero estés bien. Respecto a la duda todavía no se puede con el SDK de OpenAI incluir los outputs de Llama3.1. Y si en efecto es un intermediario. Saludos!
@eldersarmientodev
@eldersarmientodev 5 ай бұрын
Muchas gracias, explicas muy bien
@davidbu8248
@davidbu8248 5 ай бұрын
Gracias Elder espero te sirva
@alejandrobrun
@alejandrobrun 5 ай бұрын
Podrás orientar sobre cuales son los req de hard mínimos para correr phi3-mini en un ordenador (sin gpu)?
@davidbu8248
@davidbu8248 5 ай бұрын
Si efectivamente lo ideal sería tener al menos 8Gb de RAM. Sin embargo hay formas de quantizar los modelos en Ollama obteniendo menor precisión pero dando la posibilidad de usar menos recursos, en un próximo video estaré explicando como llevar eestos modelos a niveles comprimidos más bajos sin problemas de RAM
@alejandrobrun
@alejandrobrun 5 ай бұрын
@@davidbu8248 genial. Lo espero con mucha expectativa. Gracias nuevamente
@ajarivas72
@ajarivas72 4 ай бұрын
​@@alejandrobrun ¿salió el video?
@ROKKor-hs8tg
@ROKKor-hs8tg Ай бұрын
What system are you running and what is the name of the terminal that accepts copy and paste curl
@davidbu8248
@davidbu8248 26 күн бұрын
Fedora above windows and it was an adapted powershell terminal
@TheDelineacion
@TheDelineacion 3 ай бұрын
Y si se quiere lanzar en un server, como se haría en lugar de en localhost????
@davidbu8248
@davidbu8248 3 ай бұрын
Hola espero estes bien en general se puede hacer con estos pasos Deploy con cpu 1. docker pull ollama/ollama 2. docker run -d -v $PWD/ollama:/root/.ollama -p 10134:10134 --name ollama ollama/ollama 3. docker exec -it ollama /bin/bash Deploy con gpu 1. docker pull ollama/ollama 2. Instalar complementos de nvidia y en la máquina 3. docker run -d --gpus=all -v $PWD/ollama:/root/.ollama -p 10134:10134 --name ollama ollama/ollama 4. docker exec -it ollama /bin/bash Seguramente haré un video de esto para que quede más claro
@TheDelineacion
@TheDelineacion 3 ай бұрын
@@davidbu8248 Muchas gracias, si haces un video concreto mejor! me suscribo a tu canal para estar pendiente! gracias!
RAG + LLAMA  3
23:05
DavidBU
Рет қаралды 2,5 М.
Llama3 Full Rag - API with Ollama, LangChain and ChromaDB with Flask API and PDF upload
47:09
Epic Reflex Game vs MrBeast Crew 🙈😱
00:32
Celine Dept
Рет қаралды 31 МЛН
My Daughter's Dumplings Are Filled With Coins #funny #cute #comedy
00:18
Funny daughter's daily life
Рет қаралды 25 МЛН
Docker + Ollama + FastAPI
16:01
DavidBU
Рет қаралды 3,6 М.
Lo que necesitas saber de IA como Developer: Modelos vs Ollama vs LangChain
16:57
CodelyTV - Redescubre la programación
Рет қаралды 21 М.
How to use Llama 3(70B) API for FREE (beats GPT4 for business!)
3:52
Vercel v0 CHAT 👉 PROGRAMACIÓN AUTOMÁTICA con IA
14:29
Dot CSV Lab
Рет қаралды 86 М.
Como usar a API da IA llama3 em seus projetos?
13:15
Thi Code
Рет қаралды 10 М.
Chatea con tus documentos y videos, RAG Local, y más con Llama 3.2
24:38
Python RAG Tutorial (with Local LLMs): AI For Your PDFs
21:33
pixegami
Рет қаралды 258 М.