DeepSeek Coder V2: La Mejor Alternativa y ¡El MEJOR COPILOTO LOCAL GRATUITO! | Tutorial

  Рет қаралды 5,785

Artificial Consciousness

Artificial Consciousness

Күн бұрын

🚀 ¡REVOLUCIÓN EN LA PROGRAMACIÓN! DeepSeek Coder 2 está aquí para cambiar el juego 🎮
¿Cansado de pagar fortunas por asistentes de IA? 💸 ¡Descubre cómo DeepSeek Coder 2 te da el poder de GPT-4 a una fracción del costo! 😱
En este video, te revelaremos:
✅ Cómo instalar y usar DeepSeek Coder 2 GRATIS en tu PC
✅ Por qué es 100 VECES más barato que GPT-4, Claude 3 y Gemini 1.5 Pro
✅ Cómo convertirlo en tu propio GitHub Copilot personal
✅ Trucos para maximizar su potencial en Visual Studio Code
🔥 BONUS: Te mostramos cómo usar su API por centavos y generar millones de tokens
No te pierdas la oportunidad de elevar tu coding al siguiente nivel. Este video podría ahorrarte CIENTOS de dólares en suscripciones a IA. 💪💻
🔧 Enlaces útiles:
📌 Video comparativa con otros modelos: • ¡DeepSeek Coder 2: El ...
📌 Sitio web oficial de ollama: ollama.com/
📌 Sitio web oficial de DeepSeek: platform.deeps...
📌 EvalPlus: evalplus.githu...
📌 Video para obtener API de Codestral GRATIS: • Codestral (22B): ¡Ya e...
👍 Dale like, comparte y suscríbete a Conciencia Artificial para más contenido increíble sobre lo último en tecnología e inteligencia artificial.
🔔 ¡Activa la campanita para no perderte ningún video nuevo!
#programacion #github #githubcopilot #IA #codemasters #Gratis #OpenSource #ai #ias #DesarrolloDeSoftware #TechTips #vscode #Ollama #Groq #Continue #deepseek #tutorial #inteligenciaartificial #fyp #code #llm #copilot

Пікірлер: 54
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Ya está disponible el autocompletado de código mediante el API oficial de DeepSeek-Coder-V2 + Continue. Solo tengan cuidado ya que con el autocompletado se les pueden acabar muy rápidamente los tokens disponibles. - Captura de pantalla del archivo de config.json: shrtm.nu/TqSbnIT - Ejemplo de cómo debe quedar la parte en el archivo de config.json: { "models": [], "tabAutocompleteOptions": { "template": "Please teach me what I should write in the `hole` tag, but without any further explanation and code backticks, i.e., as if you are directly outputting to a code editor. It can be codes or comments or strings. Don't provide existing & repetitive codes. If the provided prefix and suffix contain incomplete code and statement, your response should be able to be directly concatenated to the provided prefix and suffix. Also note that I may tell you what I'd like to write inside comments. {{{prefix}}}{{{suffix}}} Please be aware of the environment the hole is placed, e.g., inside strings or comments or code blocks, and please don't wrap your response in ```. You should always provide non-empty output. ", "useCache": true, "maxPromptTokens": 2048 }, "tabAutocompleteModel": { "title": "DeepSeek-V2", "model": "deepseek-coder", "apiKey": "[YOUR_API]", "contextLength": 8192, "apiBase": "api.deepseek.com", "completionOptions": { "maxTokens": 4096, "temperature": 0, "topP": 1, "presencePenalty": 0, "frequencyPenalty": 0 }, "provider": "openai", "useLegacyCompletionsEndpoint": false } }
@davidreyna7198
@davidreyna7198 3 ай бұрын
Dios mío!! por que este canal no tiene mas suscriptores, te agradezco por ese información.
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Más del 88% de personas que ven los videos no están suscritos 🥲 pero espero poco a poco vayan suscribiéndose, me ayudarían muchísimo Igual muchas gracias por ese comentario hermano, me motivas a seguir creando y mejorando el contenido 💪
@TheEltictacdicta
@TheEltictacdicta 3 ай бұрын
Me encanta este canal! Seguid así!
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Muchísimas gracias por comentar y por apoyar! Tus comentarios me motivan a seguir creando contenido de calidad 👋
@MatiasZulberti
@MatiasZulberti 3 ай бұрын
Honestamente, he estado usando Copilot durante el último año y en comparación con la ejecución local de este modelo, utilizando el stack tecnologico que muestras en el video, la experiencia ha sido hasta el momento bastante pobre. Debo decir que cuento con un ordenador de escritorio con 32 GB de RAM y un i5 de 11th generacion. No tengo Placa gráfica. Tal vez con una gráfica pueda mejorar. Pero así como lo estoy usando, se traba bastante, las recomendaciones del autocomplete tardan una eternidad en llegar. La verdad que tenía mucha espectativa, porque el video es muy bueno, y el benchmark también. Pero la experiencia ha sido mala la verdad. Muchas gracias por compartir estos avances en técnologia y darnos la oportunidad de probar!
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Hola, muchas gracias por compartir tu experiencia e información de tu equipo, aunque según la poca información compartida, si debería funcionarte mejor el rendimiento del modelo de forma local. Yo tengo un ryzen 7 y 32gb de ram, pero si cuento con una gpu 4070, quizá eso me está haciendo la diferencia también, ya que si he obtenido un buen rendimiento con la mayoría de modelos presentados en el canal. Quizá otra opción que pudiera servirte bastante bien, es que utilices en modo de chat un modelo mediante API gratuito como Gemini 1.5 pro/flash, Llama 3 70B con Groq, Codestral (gratis hasta el 1 de agosto del 2024), o pagar el API que es demasiado barato de DeepSeek Coder 2 (para chat te puede durar meses con solo 2 dólares). Y para autocompletado de forma local optar por modelos más pequeños como CodeQwen (que tiene un rendimiento excelente), Qwen 2 de 0.5B, 1.5B o la versión de 7B. El nuevo modelo de Gemma 2 de google con 9B. Llama 3 8B. Podrías intentar con diferentes opciones, y probar su rendimiento a ver cuál te convence más. ¡Gracias por comentar y apoyar el contenido!
@EscuchaUnLibro
@EscuchaUnLibro 2 ай бұрын
excelente contenido🎉
@Conciencia_Artificial
@Conciencia_Artificial 2 ай бұрын
Muchas gracias 😁
@AaronCamposMiranda
@AaronCamposMiranda 3 ай бұрын
Que buenos vídeos, quizá lo compré cuando codestral dejé de estar gratis
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Es una excelente opción la verdad, muy potente y económica. Quizá para la fecha en que termine la prueba de Codestral tengamos otro(s) modelos más potentes jaja, todo va avanzando muy rápido. ¡Gracias por comentar y apoyar el canal!
@erosjoseadarragajimenez
@erosjoseadarragajimenez 3 ай бұрын
Hola , buenas tardes . En mi caso tengo un i5 12600k con 32 de ram , pero no poseo ninguna GPU . ¿En ese caso si me serviría o tendría que ocupar alguna GPU y cuál sería la más básica?
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
De acuerdo a la información oficial de Ollama, si debe funcionarte bastante bien el modelo de forma local, ya que pide un aproximado de 20gb de RAM para correr el modelo. Instálalo y cuéntanos que tal funciona en tu equipo, igual tus comentarios nos pueden ayudar a muchos a ver el rendimiento en un equipo como el tuyo. ¡Saludos!
@KryXuss
@KryXuss 3 ай бұрын
Que son Los parámetros de la IA?
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Los parámetros en un modelo de lenguaje (LLM) como ChatGPT son como los "conocimientos" que el modelo aprende durante su entrenamiento. Cuando ves números como 6B, 16B o 70B, se refieren a cuántos miles de millones de estos "conocimientos" tiene el modelo. Más parámetros generalmente significa que el modelo puede entender y generar texto más complejo, pero también requiere más poder de computación. Es como tener más neuronas en un cerebro artificial - permite pensamientos más sofisticados, pero consume más energía. Sin embargo, tener más parámetros no siempre garantiza mejores resultados, al igual que un cerebro más grande no siempre significa ser más inteligente.
@dcloki789
@dcloki789 3 ай бұрын
excelente contenido, gracias 👍
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Muchas gracias! Espero te haya resultado útil
@juanpablo9717
@juanpablo9717 3 ай бұрын
Hola muchas gracias por el contenido, tengo unas dudas. Quisiera saber si estas herramientas de auto completado tienen acceso a todo el proyecto, o sea que si me responde en base a las funciones que ya tengo creadas en todo mi proyecto ya sea hooks, estilos, etc por que seria genial para mi que al hacer una pregunta, esto tenga el contexto de mi app, de que puede usar y la forma de codificar en ese proyecto por otro lado ya que veo que tienes varios videos de como tener un copilot gratis, cual podrias recomendar para usar de manera gratuita? es que veo varias opciones pero no se cual seria hasta ahora el mas adecuado y me gustaria una recomendacion, soy desarrollador web Frontend con buen conocimiento en backend entonces me gustaria algo que se acople a esto De nuevo muchas gracias por los videos, son de mucha ayuda y agradezco tu respuesta ❤
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Hola disculpa por la demora, sobre pasarle contexto si es posible, la extensión de Continue te permite anexar a la solicitud los archivos que necesitas para mejorar la respuesta. Solo que para enviarle todo el código de tu proyecto quizá se vuelva un poco complicado si son demasiados archivos o de plano imposible por la limitante que tendrá cada modelo de su ventana de contexto. Pero si puedes enviarle los archivos más importantes o donde esté la mayor parte de la lógica para que el modelo "entienda" mejor lo que buscas. Sobre que utilizar, depende si quieres usarlo de forma local o mediante API. Pero te doy algunos consejos, si quieres local puedes optar por modelos Local: - CodeQwen de 7B (en pruebas ha tenido un excelente rendimiento para la codificación) - Qwen 2 de 7B, también hay opciones más pequeñas de 0.5B y 1.5B - StarCoder 2 de 3B o 7B, este ha sido más especializado para el autocompletado. Si tu PC te lo permite por la cuestión de hardware puedes utilizar: - DeepSeek-Coder-V2 con 16B - Codestral con 22B. API: - Codestral (API gratuita hasta el 01 de agosto del 2024), bueno para el autocompletado de código - Deepseek-coder-v2 de 236B mediante el API oficial, resulta muy económica 7.14M tokens por 2 dólares. - Gemini 1.5 Pro o 1.5 Flash de forma gratuita mediante AI Studio. Con ciertas limitaciones, pero es una excelente opción gratuita. - Llama 3 70B mediante el uso gratuito con Groq - Cohere, tiene uso gratuito y limitado de su modelo, aún me falta probarlo más, pero es otra alternativa ¡Muchas gracias a ti por comentar y apoyar el contenido!
@MvtiasL
@MvtiasL 3 ай бұрын
como anda esa IA vs codeqwen ?
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
La verdad faltaría analizar más pruebas que poco a poco vayan saliendo, pero me parece que en este punto ambas se posicionan como excelentes alternativas para codificación. En caso de encontrar benchmarks oficiales te los compartiré por aquí.
@MateFast_Oficial
@MateFast_Oficial 3 ай бұрын
tengo una rtx 3070 y 32gb de ram, el consumo de ram es de acuerdo a la consulta,no?🤔
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Mm pues desde un simple hola utilizará la ram necesaria para generar la respuesta, en peticiones donde genera mucho más texto o código, utilizará la misma ram pero por más tiempo hasta finalizar. Yo tengo un equipo parecido al tuyo, solo que con una 4070, y jala bastante bien con la pura ram 👌. Igual probé en un equipo sin gpu y 16gb de ram y también funcionó bien, un poco más lento pero bastante decente.
@addev-m
@addev-m 3 ай бұрын
Hola, excelente video, tengo un Asus Vivobook AMD Ryzen 7 7730U con 16GB RAM y 8 nucleos de procesador, es posible usar el modelo con mi hardware actaul?
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Muchas gracias por el apoyo! Conforme a tu pregunta, realicé una prueba en un equipo con Ryzen 5 5600g y 16gb de RAM (sin GPU) y si logró ejecutarlo bien. Por lo que muy probablemente también pueda funcionar en tu equipo.
@addev-m
@addev-m 3 ай бұрын
@@Conciencia_Artificial Muchas gracias por la respuesta, saludos desde chile 💯
@canelahouse1066
@canelahouse1066 3 ай бұрын
Hola gracias por el video, tengo una duda, cada vez que uso el modelo veo que se usa el CPU al 100% , pero veo que mi tarjeta de video nvidia (Quadro t1000) apenas se esta usando hay alguna manera de que se use el GPU y no el cpu? Tambien queria decirte que me encanta tu contenido!
@danilomoya9873
@danilomoya9873 3 ай бұрын
Revisa que estén instalados el soporte para los nvidia cuda cores.
@Conciencia_Artificial
@Conciencia_Artificial 2 ай бұрын
Hola hermano, disculpa por responder hasta ahora, me comuniqué con el equipo de Ollama y me comentaron que eso sucede a veces porque el modelo requiere mucha más potencia, y la GPU se queda algo corta, por lo que se divide el trabajo. Te comparto el mensaje traducido: "Sí, es muy posible. Suele ocurrir cuando el modelo es demasiado grande para caber en la memoria de la tarjeta gráfica (VRAM), y necesita ser compartido con la memoria del sistema. " ¡Muchas gracias por comentar y apoyar el contenido!
@jairomt
@jairomt 3 ай бұрын
Muchas gracias por compartir 😄, una consulta hay forma de configurar por mientras deepseek como chat mediante API y otro modelo como codemistral para el autocompletado? o copilot para el autocompletado? es posible ello disculpa la consulta
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Si, casi al final del video mencionó lo que comentas, con Continue podemos dejar el chat mediante su API como mostramos en el video, y para el autocompletado de código, podemos utilizar de forma gratuita Codestral (mediante su API también), si quieres aprender a obtener el API de Codestral te comparto un video donde enseñamos cómo obtener acceso gratuito (el API estará gratis hasta el 01/Agosto/2024): kzbin.info/www/bejne/gXeoh3eFjbSEpqcsi=MdmGSShLI1T_G2P4 Espero te sirve a esta información, y cualquier duda o comentario aquí estoy al pendiente. Muchas gracias por comentar!
@jairomt
@jairomt 3 ай бұрын
@@Conciencia_Artificial muchas gracias iré a ver el video 😄
@RoxElton
@RoxElton 3 ай бұрын
Hola, he descargado codeGPT, y he instalado codeollama, tengo una pregunta como puedo configurar codeGPT para que pueda resivir los prompts en español y funcionar de forma correcta?
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Primero una disculpa por la demora, en segundo estuve investigando al respecto, pero no encontré información sobre como configurar para que siempre responda en español, seguiré revisando y en caso de encontrar te la comparto. Lo que puedes hacer por el momento es que, si te responde en inglés, envíale el prompt: "Responde en español" o "Traduce a español" para que vuelva a lanzar toda la respuesta, pero traducida. ¡Gracias por comentar y apoyar el contenido!
@Alvaro.G3576
@Alvaro.G3576 3 ай бұрын
Mi maquina es un ryzen 5600G + GTX 1660Super con 16GB de ram lastima que no estoy dentro del rango de la ram
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Si debe funcionar, acabo de probar en un equipo con el mismo procesador y 16 gb de ram, y sin gpu y funciona bastante bien 👌
@Alvaro.G3576
@Alvaro.G3576 3 ай бұрын
@@Conciencia_Artificial ok Gracias man tocara probar entonces .. 🫡
@JOELANTILLANO
@JOELANTILLANO Ай бұрын
Para usar la api tambien es necesario descargar ollama?
@Conciencia_Artificial
@Conciencia_Artificial Ай бұрын
Si solo quieres usar el API no es necesario, pero para el autocompletado de código si te recomiendo que utilices algún modelo pequeño con ollama, ya que puede gastar demasiados tokens. ¡Gracias por comentar!
@alvarovasquez8978
@alvarovasquez8978 3 ай бұрын
Quisiera saber cuales son los requisitos minimos de una pc para que funcione la version lite de deepseek poooooooooooorfaaaaaa😢😢😢😢😊 y gracias por el vídeo
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Como tal no hay información oficial que especifique esto, pero acabo de probar en un pc con 16 GB de RAM, y un Ryzen 5 5600g (sin GPU solo gráficos integrados) y funcionó bastante bien la generación de respuestas y código. Ollama igual menciona que mínimo necesitarías entre 18-20 GB de RAM. Pero con la prueba que realicé que fue menos si funcionó. ¿Cuáles son las características de tu equipo?
@Caigaencuenta
@Caigaencuenta 3 ай бұрын
Que máquina tienes brother?
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
Tengo un ryzen 7 5700x, 32gb de ram y una rtx 4070 12gb de vram. Gracias por comentar! 👋
@Caigaencuenta
@Caigaencuenta 3 ай бұрын
@@Conciencia_Artificial Gracias por responderme brother, yo tengo lo mismo solo que a diferencia tuya tengo una 3080 y no me funcionó el modelo :( Por otro lado haz pensado hacer una guía del uso de RAG para el entrenamiento de modelos locales de IA?
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
@@Caigaencuentapero intentaste instalar el modelo de 16B o el grande de 236B? Porque el de 16 si debe ejecutarse correctamente en tu equipo, probé este modelo en una computadora con 16gb de ram y un ryzen 5 5600g (sin gpu) y funcionó bien. El modelo grande ni con la 4090 te va a funcionar, es demasiado pesado, para es es mejor utilizarlo a través de un servicio mediante su API Y sobre enseñar sobre los otros temas si lo tengo pensando hacer, nada más termino de lanzar algunos videos que tengo pendientes y empiezo con esos temas. Muchas por la recomendaría!
@Sorl4c
@Sorl4c 2 ай бұрын
@@Conciencia_Artificial Acabo de descubrir tu canal super interesante. Tengo un i5 de 11 generacion y 48GB de RAM pero una grafica muy antigua una 270x. No crees que me funcione el modelo grande? Tambien tengo un m2 a 7200MBs, solo me falla un poco la gráfico por que no juego y no me ha hecho falta actualizarla Estaría buen un video de comparativas de lo que se podría hacer con un modelo y otro
@bambanx
@bambanx Ай бұрын
Hay otro mejor a este día?
@bambanx
@bambanx Ай бұрын
Gracias
@Conciencia_Artificial
@Conciencia_Artificial Ай бұрын
Hay excelentes alternativas locales como Llama 3.1 8b, Gemma 2 2b/9b/27b, Mistral-nemo 12b, si puedes probar este último hazlo, comentan que se están obteniendo muy buenos resultados, solo considera las especificaciones mínimas, por ejemplo, para mistral-nemo se necesita mínimo el doble de RAM, o sea 24 gb de ram para que su funcionamiento sea eficiente.
@bambanx
@bambanx Ай бұрын
@@Conciencia_Artificial muchas gracias
@NsaVmpr
@NsaVmpr 3 ай бұрын
buenisimo
@Conciencia_Artificial
@Conciencia_Artificial 3 ай бұрын
muchas gracias por comentar! Y espero te haya resultado muy útil esta información. ¡Saludos!
@NsaVmpr
@NsaVmpr 3 ай бұрын
@@Conciencia_Artificial si, realmente muy útil y videos de muy buena calidad en producción e información q es lo mas importante. seguiré viendo los otros, quiero un copilot para programar pero que sea en linea ya q mi maquina no es tan poderosa como para aguantar una IA local.
Testing out OLLAMA - Your own ChatGPT locally! [ENGLISH SUBTITLES]
14:40
Как мы играем в игры 😂
00:20
МЯТНАЯ ФАНТА
Рет қаралды 3,4 МЛН
ЭТО НАСТОЯЩАЯ МАГИЯ😬😬😬
00:19
Chapitosiki
Рет қаралды 3,4 МЛН
Players vs Corner Flags 🤯
00:28
LE FOOT EN VIDÉO
Рет қаралды 86 МЛН
ChatGPT-o1 Created A Programming Language...
19:45
Conner Ardman
Рет қаралды 73 М.
I found the perfect no-code automations platform
20:06
Adam Skjervold
Рет қаралды 41 М.
Build anything with v0 (3D games, interactive apps)
9:05
Vercel
Рет қаралды 105 М.
Can I Run Youtube Entirely From My Terminal? (No Browser)
15:31
Как мы играем в игры 😂
00:20
МЯТНАЯ ФАНТА
Рет қаралды 3,4 МЛН