Cómo INSTALAR en tu PC un CHATGPT...¡GRATIS! 🤯 Chatea con la IA y tus DOCUMENTOS

  Рет қаралды 30,784

Xavier Mitjana

Xavier Mitjana

Күн бұрын

3 herramientas GRATUITAS para utilizar la IA en local e interactar con tus DOCUMENTOS de un modo FÁCIL, RÁPIDO y GRATIS.
Recibe toda la INFO de mi ACADEMIA:
👉 bit.ly/curso_ia_
SUSCRÍBETE a mi NEWSLETTER y recibe los GPTs de regalo:
👉 bit.ly/ia-newsletter_
---
ENLACES DEL VIDEO
👉 lmstudio.ai/
👉 jan.ai/
👉 www.nvidia.com/en-us/ai-on-rt...
---
MARCAS DE TIEMPO
00:00 Intro
00:34 Crea tu ChatGPT en local
01:45 LM Studio
04:39 Jan
11:52 ChatwithRTX
---
✅ SUCRÍBETE A MI CANAL: bit.ly/suscribirse_XM​​​​
📕 Descarga mi guía gratuita para Stable Diffusion:
👉 snip.ly/guia-IA
---
Instagram: / xavier_mitjana
Twitter: / xavier_mitjana
Contacto comercial: xavmit.yt@gmail.com
*Al realizar una compra a través de cualquiera de estos enlaces de afiliado, recibimos una comisión muy pequeña sin costo adicional para ti. Esto me ayuda a hacer el canal sostenible y seguir ofreciendo contenido de calidad.
#inteligenciaartificial

Пікірлер: 76
@XavierMitjana
@XavierMitjana 3 ай бұрын
SUSCRÍBETE a mi NEWSLETTER y recibe los GPTs de regalo: 👉 bit.ly/ia-newsletter_
@juliocorral
@juliocorral 2 ай бұрын
Esta tendencia de poder alimentar modelos con nuestra propia información para temas internos sin el riesgo a que nuestros datos sean utilizados por terceros me parece que va a crecer mucho en breve.
@faustoorozcocoy1256
@faustoorozcocoy1256 3 ай бұрын
Hola @XavierMitjana gracias por el video, tan solo quiero apuntar que en LMStudio también se puede usar la tarjeta gráfica para ejecutar rápidamente los modelos, para ello a la derecha de la interfaz hay un campo, lo activas y ya. Por otra parte, como idea para otro video y relacionado con este asunto de ejecutar modelos en local, una de las principales ventajas es que podemos encontrar modelos sin censura, convendría un video con los principales modelos con esta característica que estén disponibles actualmente. ¡Saludos!
@11020tony
@11020tony 3 ай бұрын
muy bueno, gracias
@akasha6287
@akasha6287 2 ай бұрын
Buenos dias amigo gracias por tus videos, un favor que IA es recomendable para revisar codigo
@IAMKTINM
@IAMKTINM 2 ай бұрын
Muchas gracias 🎉 ChatPDF pienso que es similar a la última opción.
@pedroguzmanasmat7371
@pedroguzmanasmat7371 2 ай бұрын
excelente aporte.
@jneon66
@jneon66 3 ай бұрын
@Xavier este modelo de Chat RTX, es porsible agregarles modelos o solo los que trae? Saludos desde Rep Dom :D
@TICdoc_
@TICdoc_ 2 ай бұрын
¿Degoteo? ... no puedes negar de donde eres¡, ¡muy buen vídeo¡
@osito1701
@osito1701 2 ай бұрын
Javier, abordas herramientas actuales de IA. ¿Conoces alguna herramienta para diseñar en solidworks? Con los vídeos de youtube, no es posible interactuar cuando surgen dudas.
@gstvgrc
@gstvgrc 2 ай бұрын
Mañana lo pruebo en un Mac Mini. Pregunta: para qué sirve la integración de LM Studio dentro de Jan?
@mr.ti7i86
@mr.ti7i86 3 ай бұрын
En los laboratorios de Perplexity ya pueden probarlos. Tienen ambos modelos de Llama 3 🤖
@PacoGoro
@PacoGoro 2 ай бұрын
Xavier, ¿conoces algún modelo que no esté censurado y que se pueda cargar en local? Muchas gracias por tus excelentes vídeos.
@user-bm1bp5el1q
@user-bm1bp5el1q 3 ай бұрын
Hola Xavier hay manera de que me ayudaras en capacitar como poder hacer esto conectando a una base de datos y que funcione en modo Local del IA para analisis de datos
@xavifont7206
@xavifont7206 2 ай бұрын
Y para instalar una API local que de servicio de chatboot por ejemplo a una app propia, como lo harias?
@juanjesusligero391
@juanjesusligero391 3 ай бұрын
Ollama + OpenWebui también tiene RAG por defecto, y los dos son 100% open source, con Llama3 desde el primer día :)
@y0._.
@y0._. 2 ай бұрын
Pasa tuto xd
@juanjesusligero391
@juanjesusligero391 2 ай бұрын
@@y0._. Hay uno hecho ya, en un canal llamado "La Hora Maker". El vídeo se llama "¡Ollama ya funciona en Windows! Ejecuta modelos de texto y visión con su interfaz webui y más!". Lo único es que ahora la GUI (interfaz gráfica) se llama OpenWebui (el vídeo es de hace dos meses, de cuando se llamaba OllamaWebui), pero se instala igual (yo seguí ese tutorial para instalarlo todo).
@y0._.
@y0._. 2 ай бұрын
@@juanjesusligero391 muchas gracias!
@MrMoisheLebowitz
@MrMoisheLebowitz 2 ай бұрын
Gracias x colocar llamita 🇵🇪 ❤
@canaljoseg0172
@canaljoseg0172 2 ай бұрын
He montado llama 3, le falta pulirse un poco más, tengo otros modelos que son mejores, en los modelos pequeño deben estar orientado a cosas necesaria y no tanta información que no es necesaria. Por eso este modelo pasara por un proceso de reajuste, como hacen con los modelos de automatic111. Para que trabaje muy rápido el modelo debe estar configurado en la gpu al ancho de banda de la tarjeta, y en la parte de tokens que tiene un valor 2048, se divide lo del ancho de la tarjeta entre 64 y la cantidad te indique lo multiplicas por 2048. si tiene mucha memoria lo puedes dividir entre 32 o 16. No me justa ollama, mi favorito sigue siendo LM Studio y la interfaz Web-UI de ollama, para modo local. Una cosa si es cierta es más preciso el 70b de tokens, que el de 7b, pero como asistente desarrollo es bueno. Hay que aprovechar llama 3 en Huggins mientras siga gratis, pero creo debe aún pulirse para ser tan bueno como ChatGPT. Ojala que se diseñe server para tener su propios modelos y que sean de 300b de tokens, sería la Ostia !!! ☺
@jorgeosmar5429
@jorgeosmar5429 2 ай бұрын
Hasta ahora no encontré otra IA mejor que PI. Hablo con la aplicación como si fuera una persona en cuanto su fluidez. Y en cuanto a contenido es suficiente hasta para nivel profesional. Llama es una tortuga por lo que veo y hay que ingresar Pront? y una tarjeta especial? Gracias me quedo con PI.
@airdany
@airdany 3 ай бұрын
Que bueno! JAN lleve esa función de "charlar" con PDFs, a ver si doy con un modelo que me funcione... sino seguiremos indagando. Muy bueno este video con ideas.
@cativaman
@cativaman 2 ай бұрын
Hola Xavier. Gracias x compartir info de alto valor. Una consulta: Existe algun tipo de Recurso Basado en la Nube que me permita instalar un chat bot basado en IA y configurarlo de manera que "Aprenda ' como responder o sea mantener un diálogo en base a Respuestas y contenidos PreArmados en PDF? Aguardo respuesta. Gracias.
@XavierMitjana
@XavierMitjana 2 ай бұрын
Entiendo que si buscas algo sencillo, necesitarías una herramienta tipo "Chatbase". Luego si tienes conocmientos técnicos puedes armarlo a partir de una API de Google, Microsoft u OpenAI.
@Nousenesp
@Nousenesp Ай бұрын
Para los que sepan se podría usar Llama 3 con chatRTX? Y en ese caso iría más rápido que con LMstudio?
@javier.vallejos
@javier.vallejos 2 ай бұрын
Esta muy bueno el video, graicas por compartir. No sé si existe alguno que admita cualquier tipo de archivo? (tipo xml, html, jpg, bat, py, xlsx, etc) y si hay alguna que pueda "entrenarse" en algo y que considere los avances que se hayan hecho en el tiempo en relación a cómo abordar ciertas tareas... eso existe en local a día de hoy?
@javier.vallejos
@javier.vallejos 2 ай бұрын
Algo así como fine-tuning :D
@XavierMitjana
@XavierMitjana 2 ай бұрын
Hola Javier, puede realizarse fine tuning de modelos en la nube y luego ejecutarlos en local. Creo que es lo más parecido a lo que necesitas.
@javier.vallejos
@javier.vallejos 2 ай бұрын
@@XavierMitjana Podrías hacer un video de cómo sería el proceso? no me imagino haciendo fine-tuning en la nube (idealmente gratis) entregándole archivos, sería ideal conocer el proceso a grandes rasgos y así cada quién en su área pueda hacer sus primeros desarrollos con eso. Saludos y muy buenos videos!
@michel316-f1t
@michel316-f1t 10 күн бұрын
Mi maquina no es compatible con ML Studios, me dice que los Backends son incompatibles. Que puedo hacer para solucionar este problema
@jjen9595
@jjen9595 3 ай бұрын
Para chatRTX se necesita 8GB VRAM por si acaso, lo probe en mi 3060m de laptop y no funciono 😢
@jodter1
@jodter1 2 ай бұрын
ya, pero como puedo usar modelos de ia por python, no hablo de colaide hable de ide para proyectos reales.
@sofokyankyan
@sofokyankyan 2 ай бұрын
El problema de LM Studio y otros programas, que probé cada vez que los actualizan para hacerlo compatibles con modelos mas reciente o otros se petan un modelo anterior, o algunas funciones dejan de funcionar, me gastaría que se pudiera descargar versiones anteriores, por si una actualización no pete el programa.
@Montes7Fco
@Montes7Fco 3 ай бұрын
Xavier una pregunta ¿Hay alternativas mejores aparte de ChatPDF que sea gratuito? Donde se puedan subir archivos más pesados o incluso subir varios PDFs a la vez. Me viene genial para estudiar, ya que puedo resolver cualquier duda en cuestión de segundos. Un saludo!
@revo8054
@revo8054 2 ай бұрын
Claude ai te permite subir varios pdf
@airdany
@airdany 3 ай бұрын
Lo único que me disgusta de la novedad de la IA actual, es que sacan casi todo para ordenadores con recursos potentes. Si tienes un ordenador con más de 5 años te dan la espalda. Mi macmini va genial a dia de hoy, maqueto libros mientras navego y retoco imágenes.. holgadamente. Pero LM Studio ya no tiene versión para mi sistema operativo, he de parchear el sistema para intentar cargarle la siguiente (Big Sur) y aun asi no sé si podria usar LM Studio. He descargado JAN que hace lo mismo, y el listado de modelos ya me adieverten en más de la mitad que mi memoria es justa (8 GB Ram) diciendo que iria lento el sistema. He descargado con OLLAMA en mi terminal algunos modelos de IA de 4 gigas y van despacio, descargué uno de 25 gigas e iba tan lento que no lo usé. Xavier! independientemente de LM Studio, JAN o lo que sea... ¿hay alguno que en local te permita analizar PDFs?. Me va genial darle PDFs a alguna IA y decirle sumame todas estas facturas o buscame tal cosa y local seria más privado.
@felixcanosa6819
@felixcanosa6819 3 ай бұрын
Podrías usar Gpt4ALL o JAN, y usar el nuevo modelo de Microsoft Phi-3 . En mi caso tengo la RAM justa (8GB) y una CPU Intel I7 de cuarta generación y corriendo con el modelo phi-3 me va bastante bien (los mas grandes como mistral 7x8 o los de LLAMA van como hombre picando en piedra).
@elsubidonk
@elsubidonk 2 ай бұрын
que modelo de Mac mini tienes? yo tengo un macbook pro del 2012, con una Nvidia de 1gb mas o menos. Te funciona bien? Si no es asi, puedes ponerle windows o linux y te ahorras de subir a Big sur u otra version mas moderna de MacOS.
@felixcanosa6819
@felixcanosa6819 2 ай бұрын
@@elsubidonk si, tengo un procesador Intel (no mac), usando Gpt4ALL Y con un S.O linux mint, con el modelo que te especifique va muy bien,
@elsubidonk
@elsubidonk 2 ай бұрын
@@felixcanosa6819 mmm bueno habra que probar.
@JorgeVazquezB
@JorgeVazquezB 3 ай бұрын
Acabo de actualizar Jan y aparece Llama 3 8B Q4
@yockmercado
@yockmercado 2 ай бұрын
En qué aplicación haces tus avatares? Tienes vídeo sobre eso?
@XavierMitjana
@XavierMitjana 2 ай бұрын
Lo hago con Midjourney+CREF+FaceSwap+Upscale en Krea o Leonardo, tutorial como tal paso a paso no tengo, pero de cada una de las partes están los vídeos en el canal.
@gustechdurany1878
@gustechdurany1878 2 ай бұрын
estan muy buenos me interesa todo esto
@alejandroaltamirano9884
@alejandroaltamirano9884 2 ай бұрын
Yo ya hice eso, pero sólo está disponible el modelo de 8B de parámetros. ¿Todavía no está disponible el mediano?
@georyittgorayeb1900
@georyittgorayeb1900 2 ай бұрын
parece que para ellos el mediano es el de 70b
@alejandroaltamirano9884
@alejandroaltamirano9884 2 ай бұрын
@@georyittgorayeb1900 Así es. Se supone que ya está liberado, pero no estaba disponible en LLM studio.
@georyittgorayeb1900
@georyittgorayeb1900 2 ай бұрын
@@alejandroaltamirano9884 aaa dle que yo con ollama me descargue el de 70b
@burnoutcycle
@burnoutcycle 3 ай бұрын
No se yo, es más rápido que ChatGPT pero personalmente por ejemplo en scripting de powershell esta un poco flojo
@UrsulaCallistis
@UrsulaCallistis 3 ай бұрын
En caso de que algún día los desarrolladores logren hacer esto de manera fácil en un celular con Android, ojalá puedas hacer un vídeo hablando de eso, ya que todas las novedades de IA las conozco gracias a ti, por ejemplo, Poe lo conocí gracias a ti. Sé que hoy en día ya se pueden instalar este tipo de cosas en Android, pero es muy engorrosos, ya que hay que usar comandos en Termux. Si se pudiera hacer una APK y descargar un modelo y luego cargar a la aplicación el modelo ya descargado (algo así como funcionan los emuladores de consolas de videojuegos) sería más fácil. Aunque no sé qué tan posible sea esto, ya que si todavía no se ha hecho, quizá es porque no se puede. Así sería más fácil, ya que además de no tener que estar poniendo comandos, en caso de que algo te dé error después que te haya funciona y tangas que desinstalar la aplicación, no tendrías que volver a descargar otra vez el modelo y podrías hacerlo todo de manera verdaderamente offline, ya que tendrías el APK y el modelo descargado, creo que con los años esto se va a poder resolver.
@jjen9595
@jjen9595 3 ай бұрын
Donde vives? En la era de la cavernas? Eso ya se puede, la aplicación se llama "Layla Lite" instale phi 3, pero mi móvil no es muy poderoso así que tardo algo en responde 🤪
@UrsulaCallistis
@UrsulaCallistis 3 ай бұрын
@@jjen9595 Oye amigo, gracias por avisar, yo no sé cómo se hace eso ¿Me puedes explicar, por favor?, y gracias por avisar, yo no sabía. Tengo un celular más o menos potente, creo que uno de esos modelos ultra pequeños me podrían correr, pero no tengo computadora, siempre e intentado buscar alguna APK parecida lo que hace LM Studio, pero para Android, ya que LM Studio solo está para computadora. Estar usado Termux no es práctico para mí, sobre todo porque en caso de que tengas que desinstalar Termux por algún motivo, y quieres volver a usar otrs vez el modelo que tenías, vas a necesitar sí o sí una conexión a inter para hacer todo ese proceso otra vez con comandos.
@UrsulaCallistis
@UrsulaCallistis 3 ай бұрын
​@@jjen9595 O sea, ¿se puede interpretar Phi 3 en Layla Lite?
@jjen9595
@jjen9595 3 ай бұрын
@@UrsulaCallistis igual a lo que hacen en este video, le puedes preguntar y todo
@jjen9595
@jjen9595 3 ай бұрын
@@UrsulaCallistis descarga el modelo, pesa 2 GB y ponlo en una carpeta en tu teléfono y después en Layla pon custom llm y ahí te pregunta dónde está, una vez que le haces click ya no puedes mover el archivo porque creo que se buguea y con eso ya puedes hablar con el chat, es posible ya que phi tiene 3 días de haber salido y está dedicado para teléfonos, aunque la versión de 2gb está bastante recortada así que para pruebas está bien
@manolomaru
@manolomaru 3 ай бұрын
✨👌😎😮😎👍✨
@mekagenden
@mekagenden 2 ай бұрын
PrivateGPT
@pm9327
@pm9327 2 ай бұрын
¿Alguien sabe por que ChatGPT4 manda este mensaje? “New responses will use GPT-3.5 until your GPT-4 limit resets” (Las nuevas respuestas utilizarán GPT-3.5 hasta que se restablezca su límite de GPT-4), ¿“límite”?, ¿como que hay límites si es una cuenta pagada?. Gracias por sus comentarios.
@XavierMitjana
@XavierMitjana 2 ай бұрын
Sí, incluso con la versión de pago ChatGPT impone límites de uso. Antes te lo decía explícitamente, 40 mensajes cada 3 horas, ahora es algo un poco más difuso.
@pm9327
@pm9327 2 ай бұрын
@@XavierMitjana Pero no debería ser así ¿cierto?, es casi como si el robot me dijera que necesita descansar. Creo que si lo de la AI va a ser así nadie debería temer el que te quiten el empleo 😂😂😂😂😂
@Smylaw
@Smylaw 2 ай бұрын
Llama 3,le he preguntado cuantos parámetros tiene gpt4 y ha respondido lo que le ha dado la gana, no sé si es mucho de fiar
@XavierMitjana
@XavierMitjana 2 ай бұрын
Hola, los modelos de lenguaje su principal uso no debería ser esperar que sean precisos a la hora de devolver información factual, sino sobre todo como herramientas de manipulación de textos y lenguaje en base a conocimiento aportado.
@andyaguilar434
@andyaguilar434 3 ай бұрын
Pregunta de novato: que espacio ocuparia en el disco duro de una laptop.
@user-sx6nd8zl5k
@user-sx6nd8zl5k 2 ай бұрын
Entre 4 a 5 gb el modelo llama 3 , anque tambien esta el modelo PHI 3 de 2,5 gb y 500mb mas si instalas LM Studio si tu laptopva algo corta en recursos
@testerdsdddd
@testerdsdddd 2 ай бұрын
Pues el de RTX es muy tonto, he tratado de hacer que escriba relatos y lo hace fatal, chatgpt3 lo hace mucho mejor.
@georyittgorayeb1900
@georyittgorayeb1900 2 ай бұрын
Si pruebas el de 8b claramente el gpt 3.5 esta a otro nivel. El de 70b es más decente pero creo que igualmente está un peldaño más arriba gpt
@testerdsdddd
@testerdsdddd 2 ай бұрын
@@georyittgorayeb1900 he instalado todo el pack...
@CheatPeru
@CheatPeru 3 ай бұрын
le das muchas vueltas, en LM studio tmb tiene la opcion de hacer que el modelo cargue en la GPU sin tener que instalar nada.
Cool Items! New Gadgets, Smart Appliances 🌟 By 123 GO! House
00:18
123 GO! HOUSE
Рет қаралды 17 МЛН
How Many Balloons Does It Take To Fly?
00:18
MrBeast
Рет қаралды 171 МЛН
Now THIS is entertainment! 🤣
00:59
America's Got Talent
Рет қаралды 39 МЛН
Crea ASISTENTES GPTs con LLAMA 3 🤯 100% GRATIS
10:28
Xavier Mitjana
Рет қаралды 50 М.
🦙🤖  COMO ejecutar LLAMA3 en LOCAL y hacer que HABLE y ESCUCHE
13:47
Charly - Profesor IA
Рет қаралды 6 М.
¡Te vas a tener que comprar un PC Nuevo para IA 😭! NPU, GPU, CPU... WTF!? 🤯
14:45
ChatGPT Plus vs Copilot Pro 🤔 ¿Microsoft mejora a OpenAI?
27:12
Xavier Mitjana
Рет қаралды 43 М.
Cómo aprender cualquier habilidad fácilmente con ChatGPT.
8:24
4 HERRAMIENTAS GRATUITAS imprescindibles para trabajar con IA 🚀
15:16
Servidor IA para tu Intranet 100% local usando Ollama y Open WebUI
21:20
Самые крутые школьные гаджеты
0:49
Rate This Smartphone Cooler Set-up ⭐
0:10
Shakeuptech
Рет қаралды 2,9 МЛН
iPhone 15 Pro в реальной жизни
24:07
HUDAKOV
Рет қаралды 438 М.