Les 3 erreurs d'installation de Bolt les plus fréquentes et leur fix

  Рет қаралды 6,267

codeconcept

codeconcept

Күн бұрын

Installer Bolt en local + un LLM de votre choix
🚀 Plus de 40 formations pour 25 €/mois SANS engagement de durée 🚀
codeconcept.te...
💪 Soutenir la chaine via tipeee :
fr.tipeee.com/...
Liens cités dans la vidéo :
Installation de Git (pour récupérer et sauvegarder le code de vos projets)
git-scm.com/
Node js et l’outil NPM (car npm est indispensable pour installer les dépendances d’un projet)
nodejs.org/en/...
Installer pnpm (outil semblable à npm mais plus performant)
pnpm.io/instal...
npm install -g pnpm
Cloner le projet :
git clone github.com/col...
VS Code (pour afficher les différents fichier d’une application et pouvoir les modifier)
code.visualstu...
Ollama (pour installer des modèles en local)
ollama.com/

Пікірлер: 42
@loh3763
@loh3763 Ай бұрын
Excellent tuto, merci, c'était super clair et pédagogique. 👍
@redington3851
@redington3851 2 ай бұрын
merci pour la vidéo top et la démonstration
@themike2009
@themike2009 2 ай бұрын
Merci beaucoup pour cette mise à jour 🙏
@SamsBackground
@SamsBackground Ай бұрын
Bonjour, merci pour tes vidéos. Il y a une nouvelle MAJ de Pinocchio (3.0) et là Bolt est facilement installable surtout que maintenant il est rattaché à Hugginface, pourriez vous svp faire une vidéo pour expliquer comment tirer le meilleur de Bolt avec les meilleurs models gratuits? Merci encore
@anthonyfreneat6555
@anthonyfreneat6555 2 ай бұрын
Utilisant Bolt et Cursor de manière intensive, je croyais pouvoir intégrer de manière fluide à mon workflow. Mais, mon constat est que si on n’est pas un très bon développeur, il est difficile d’être un bon prompt engineer … Pour les cas basiques, comme un blog, c’est accessible à tous. Mais des que l’on code des fonctionnalités avancées, cela peut devenir le chaos. A ceux qui tremblent face à l’IA, il s’agit ( aujourd’hui pour le moins ) juste d’un attracteur d’attention. Si vous n’êtes pas bon pour faire des pull requests, et distinguer les bons des mauvais patterns je vous souhaite bien du courage. Car quand une modification de 100 lignes est proposée, il peut être difficile de distinguer le vrai du faux. Quand on pèse le coût énergétique et le retour sur investissement qui n’est pour l’heure pas garanti, je ne vois pas, de ma modeste condition de grands changements. Si vous tabulez rapidement dans un environnement professionnel, on vous repère très vite …
@codeconcept
@codeconcept 2 ай бұрын
Je pense que ce sont des outils qu'il faut suivre pour savoir à quoi en attendre. Pour ce qui est de créer rapidement une app standard comme il y en a tant en info de gestion (du CRUD amélioré), ça fait gagner du temps. J'ai généré tout à l'heure une application mobile hybride Ionic avec un backend Node / Express et une authentification JWT : c'est clairement du temps de gagné, qui peut être consacré à des fonctionnalités plus intéressantes faites à la main. Après, en tant que dev, je regarde au moins autant comment ajouter des fonctionnalités de recherche plus efficaces via des DB Vectorielles, ainsi que la possibilité de créer des assistants entrainés sur des données personnelles. Et c'est franchement sympa d'avoir une recherche basée sur le sens plutôt que sur des mots clés. Après, quand arriveront les nouvelles génération d'IA pour le dev - peut-être basées sur la fameuse architecture JEPA (mais peut-être autre chose dont on n'est pas au courant) -, là, elles pourront peut-être s'attaquer à des développement intermédiaires voire avancés. C'est en tous cas l'objectif annoncé (une rupture d'avec les LLMs). Pour les non-devs, ces outils donnent la possibilité de créer des applications impossibles à créer autrement sans savoir programmer. Ce sont des gens du métier qui veulent concrétiser une idée. On n'est pas en compétition. Et pour des applications qui seront destinées à quelques dizaines ou centaines d'utilisateurs, ça peut largement suffire. Et si l'application rencontre son public, il sera temps de la faire réécrire par des devs. Mais il y a tellement d'applications qui ne rencontrent pas le succès espéré.
@anthonyfreneat6555
@anthonyfreneat6555 2 ай бұрын
@ je vous remercie pour votre réponse, et des points de nuance apportés.
@ThePrimeTech
@ThePrimeTech 2 ай бұрын
Suepr vidéo merci. Tu penses qu'on peut faire des choses similaires avec le dernier Apple mini M4 ? D'avance merci pour ta réponse
@codeconcept
@codeconcept 2 ай бұрын
Il ne reste plus qu'à attendre le retour de quelqu'un qui a une config équivalente. En tous cas, ce sera (bien) plus rapide que sur ma brouette 😅 (un Mac avec un i7 et pas beaucoup de RAM)
@electroheadfx
@electroheadfx 2 ай бұрын
@@codeconcept peut-être que les puces silicon avec bcp de ram ca le fera. Les derniers Mini M4 sont taillé pour cela normalement.
@Madum_tv
@Madum_tv Ай бұрын
bonjour, je ne vois pas le paragraphe avec les 2 lignes de codes, pourrais tu le donner? et le constant me semble plus court chez moi
@AhmedIbrahimAbdallah-e4u
@AhmedIbrahimAbdallah-e4u Ай бұрын
merci beaucoup
@arnogos6174
@arnogos6174 2 ай бұрын
Merci pour la vidéo. Est-il possible d'utiliser l'API Claude / Anthropic en illimité et gratuitement ? Merci
@codeconcept
@codeconcept 2 ай бұрын
Merci :) Quand on utilise des LLMs d'une entreprise depuis son site, c'est généralement gratuit, et quand on l'utilise via une API, c'est généralement payant.
@Blm_64
@Blm_64 2 ай бұрын
bonjour, j'ai copilot github pour vs, et aussi un abonnement chatgpt mais pas de clé d'api comment faire pour se servir de se repo?
@elle-est-mythomane
@elle-est-mythomane 2 ай бұрын
est que bolt new en local fonctionne avec une clé openai chatgpt, car je n'ai jamais réussi à le faire fonctionner
@codeconcept
@codeconcept 2 ай бұрын
Oui, à condition de renommer ".env.example" en ".env.local". J'ai pas essayé personnellement car j'ai installé un LLM en local. A voir ce que d'autres qui ont des abonnements ont fait.
@nislab_
@nislab_ 2 ай бұрын
Salut, tu as quoi comme config je veux dire, quel genre d’i7 et combien de ram dispo ?
@codeconcept
@codeconcept 2 ай бұрын
Salut, un 3,8 GHz Intel Core i7 8 cœurs, avec une modeste RAM de 8 Go 2667 MHz DDR4 (quels radins chez Apple de ne pas mettre 16 Go d'emblée) et une aussi modeste AMD Radeon Pro 5500 XT 8 Go. Ca me suffit largement pour le dev à la main. Mais pour faire mumuse avec des IA locales ... 🐌 😄
@nislab_
@nislab_ 2 ай бұрын
@codeconcept merci 🙏, je ne suis pas certain que ta carte soit compatible, mais tu as une version Rocm d’Ollama
@JohnMarcel666
@JohnMarcel666 2 ай бұрын
Il faut passer à minima à un Mac Mini M4, ça dépote pour du dev, et pour un prix ridicule ! Ses 16 Go de mémoire unifiée sont top pour de l'inférence...
@Talaria.School
@Talaria.School 2 ай бұрын
@calou31600
@calou31600 2 ай бұрын
super vidéo. J'ai un problème qui s'affiche "the operation is insecure" avec groq et "There was an error processing your request: No details were returned" avec ollama. est-ce que quelqu'un peut m'aider?
@ben_adamfree6145
@ben_adamfree6145 Ай бұрын
Ça marche pas sur iPad ?
@guicode5112
@guicode5112 2 ай бұрын
Mes deux RX570 sont trop veilles, pas un probleme de performance mais de chipset de calcul, Rocm incompatible... Sinon j'ai bien les lignes de commentées dans constants.ts, mais il me demande toujours le Claude ! Merci beaucoup pour ton partage.
@guicode5112
@guicode5112 2 ай бұрын
C'est bon ça marche, dommage qu'il ne puisse pas exploiter mes RX mais ça marche bien tout de même.
@codeconcept
@codeconcept 2 ай бұрын
Et niveau vitesse de génération de tokens, ça donne quoi chez toi ? J'espère que c'est plus rapide que chez moi : j'ai quasiment le temps de manger un casse-croûte puis de faire une sieste avant d'avoir le résultat final d'un prompt 😄
@guicode5112
@guicode5112 2 ай бұрын
@@codeconcept A partir du lancement du prompt: "Create a todo list with vuejs", jusqu'au résultat final j'ai 7 minutes. J'hésite à upgrade mon setup avec 2 msi ventus 2x rtx4070ti super 16gb gddr6x, qu'en penses-tu ?
@guicode5112
@guicode5112 2 ай бұрын
5 minutes avec mon macbook M1
@TheRemiRODRIGUES
@TheRemiRODRIGUES 2 ай бұрын
Sinon il n'y a pas de VPS avec des GPU ? J'ai cru comprendre que ce qu'il fallait c'est de la VRAM. Une RTX 4090 n'a que 24 Go de VRAM, là où une A100 a 40 à 80 Go de VRAM. Et même 141 Go de VRAM pour les H200. À priori pour faire tourner correctement des modèles de 7B (comme Mistral 7B), il faut environ 8 Go de VRAM. Donc normalement ça devrait bien tourner avec ta AMD Radeon Pro 5500 XT. Après les modèles d'IA sont souvent optimisés pour CUDA, qui est exclusif aux GPU Nvidia. AMD propose ROCm (Radeon Open Compute), mais son support est beaucoup moins répandu et pas toujours stable. Sinon tu peux tester avec Phi 3 (3B) ou Gemma 2 (2B). Ce sont de très petit modèle qui performent bien. Ils nécessiteront moins de VRAM, et seront plus rapide, après j'imagine qu'il ne faudra pas s'attendre à des performance de fous, mais ça peut valider le concept et l'idée d'investir dans une carte graphique Nvidia ou d'utiliser un VPS avec des GPU plus puissants.
@codeconcept
@codeconcept 2 ай бұрын
Oui, il y a le choix au niveau des VPS GPU. Je vais tester Phi3 :)
@bleq958
@bleq958 2 ай бұрын
Sur Razer avec rtx4070 ça tourne correctement
@codeconcept
@codeconcept 2 ай бұрын
Merci pour ce retour d'expérience 😀
@loh3763
@loh3763 Ай бұрын
Il lui fait environ 4 min pour faire le premier jet d'une app simple (je pense que c'est le cpu qui bosse, ryzen 9 7950)
@mayoniaise5169
@mayoniaise5169 2 ай бұрын
Mon extension chrome tourne mieux que Bolt
@mayoniaise5169
@mayoniaise5169 2 ай бұрын
Et ça prend 5 minutes a installer si on a déjà ollama
@codeconcept
@codeconcept 2 ай бұрын
C'est quoi comme extension ?
@Annabi_Mohamed
@Annabi_Mohamed Ай бұрын
C'est quoi comme extension ?
L’incroyable découverte du FBI dans la cave d’une maison
24:09
Their Boat Engine Fell Off
0:13
Newsflare
Рет қаралды 15 МЛН
Маусымашар-2023 / Гала-концерт / АТУ қоштасу
1:27:35
Jaidarman OFFICIAL / JCI
Рет қаралды 390 М.
NVIDIA Jetson Orin Nano SUPER + DeepSeek-r1
39:04
JMLX
Рет қаралды 5 М.
Le paradoxe qui contrôle votre vie
21:02
TRY
Рет қаралды 197 М.
5 idées pour protéger votre emploi des I.A.
16:06
codeconcept
Рет қаралды 2,6 М.
viens, on teste des manipulations débiles
12:02
overfl0w
Рет қаралды 293 М.
Sam AItman : L’ homme inquiétant  derrière ChatGPT.
26:19
СИЖУ БЕЗ ЕДЫ, ПЬЮ ОДНУ ВОДИЧКУ.
21:37
Быть Добру
Рет қаралды 79 М.
#trending #foryou #challenge #fyp #viral #short #tiktok #vs
0:15
Misiсatсh
Рет қаралды 2,4 МЛН
DID YOU NOTICE ANY LAPSES IN THE VIDEO or NOT? / MARGO_FLURY
0:34
MARGO FLURY | Маргарита Дьяченкова
Рет қаралды 12 МЛН
Таким раствором работать одно удовольствие
1:00
Профессия созидатели
Рет қаралды 954 М.