Voici comment utiliser GRATUITEMENT Bolt avec l'I.A. de votre choix

  Рет қаралды 55,429

codeconcept

codeconcept

Күн бұрын

Un fork de Bolt permet d’utiliser Bolt avec divers modèles de LLMs directement depuis votre ordinateur et … gratuitement
🚀 Plus de 40 formations pour 25 €/mois SANS engagement de durée 🚀
codeconcept.te...
💪 Soutenir la chaine via tipeee :
fr.tipeee.com/...
Liens cités dans la vidéo :
fork de Bolt par Cole Medin
github.com/col...
AI SDK providers
sdk.vercel.ai/...

Пікірлер: 186
@MsBowner
@MsBowner 2 ай бұрын
Incroyable mec, je suis dev, je n'ai aucun intérêt, mais c'est tout de meme incroyable ce que tu nous présente.
@Baraka0369
@Baraka0369 2 ай бұрын
T’as tout intérêt justement Si tu loupes ça tu seras finies dans qlq années
@michaelkihl
@michaelkihl 2 ай бұрын
Salut ! J'ai vu ta vidéo dans mon fil KZbin et j'ai tout de suite reconnu mon formateur d'Udemy. Ta vidéo est sympathique, mais j'ai encore des difficultés en développement. Je me forme seul et il n'y a personne autour de moi avec qui échanger. J'ai mis un like sur la vidéo. À très bientôt !
@codeconcept
@codeconcept 2 ай бұрын
Salut et merci :) Ca fait des années que je n'ai plus poste de formations sur Udemy. Je mets mes nouvelles formation sur mon teachable perso. Les difficultés en développement, tout le monde en a. Y compris les très seniors. Ils ont même de plus grandes difficultés car ils développent des choses plus compliquées. Mais ce qui compte, c'est de persévérer jusqu'à trouver la solution. Et parfois, le problème relevait de l'étourderie la plus basique 😅 En tous cas, il faut persévérer et garder à l'esprit que le progrès, c'est deux pas en avant, un pas en arrière. Et garder courage quand on a l'impression de ne pas progresser.
@happyjulien6275
@happyjulien6275 2 ай бұрын
Franchement énorme merci à toi frère tu mérites bien plus d'abonnés
@codeconcept
@codeconcept 2 ай бұрын
Merci Julien 😀 ! Le nombre d'abonnés dépend de l'exposition que m'accorde l'algo de KZbin. Et je n'ai pas la main dessus. On vit déjà dans un monde où les algo décident de beaucoup de choses 😅
@vahdettint
@vahdettint 2 ай бұрын
Excellente découverte à suivre 😮🎉
@codeconcept
@codeconcept 2 ай бұрын
Ca a l'air prometteur, surtout si le gars continue sur sa lancée. Il risque même ... de se faire recruter par Stackblitz 😋
@ThePrimeTech
@ThePrimeTech 2 ай бұрын
Elle est géniale ta chaîne
@codeconcept
@codeconcept 2 ай бұрын
Merci😀 Une petite chaine faite dans sa chambre. A l'ancienne 😄
@sebastienrodriguez2491
@sebastienrodriguez2491 2 ай бұрын
Tout de même compliqué à suivre pour des néophites. En tout cas très intéressant de savoir que cela est possible , ne serait ce que pour se tenir au courant 👍
@codeconcept
@codeconcept 2 ай бұрын
Merci 😀 C'est un peu comme pour les réseaux il a 20 ans : au départ, je me souviens que je devais expliquer aux entreprises clientes chez qui j'allais comment configurer leur carte réseau, partager une imprimante, relancer un service etc et maintenant c'est passé dans l'univers quotidien. Dans 10 ans, le marketing aidant, tout le monde saura quel modèle d'IA est utilise au boulot ou à la maison, combien de paramètres a leur I.A, la taille du contexte etc. D'autant qu'on aura le temps de se renseigner si les I.A bossent à notre place 😅
@TheRemiRODRIGUES
@TheRemiRODRIGUES 2 ай бұрын
C'est intéressant de savoir que le code de Bolt est open source. Ce qui peut-être intéressant, c'est de voir les idées qu'ils ont mis en oeuvre pour générer de façon autonomes des applications. Je ne sais pas où en est AutoGPT, si ce n'est qu'ils 169k starts. Mais c'est aussi open source, et ça peut-être intéressant aussi de savoir qu'elles sont les paradigmes utilisés pour réaliser des agents autonomes, comprendre qu'elles sont actuellement leurs limites et tenté de réfléchir à des solutions.
@codeconcept
@codeconcept 2 ай бұрын
C'est le genre de questions qu'il faudrait que je pose, à l'occasion d'un épisode 2 de podcast, à l'expert en I.A. qui était venu ici. Ca me fait penser que je n'ai même pas mis d'étoile au fork de bolt. C'est fait 😀
@dservais1
@dservais1 2 ай бұрын
très intéressant merci !
@kratus60
@kratus60 2 ай бұрын
Merci pour le partage, c'est très intéressant, j'ai vite arrêté bolt c'est beaucoup trop limitant quand on est déjà dev. Par contre bosser sur un projet existant avec alors là !!!! 🔥
@codeconcept
@codeconcept 2 ай бұрын
Merci :) Etant dev également, je continue à développer à la main. Mais il faut continuer à se familiariser avec ces outils car ils vont être de plus en plus présents. Perso, je suis en train d'apprendre à faire de l'embedding + persistance des vecteurs obtenus dans une DB vectorielle, histoire de pouvoir faire des recherches sur du contenu privé. Je pense que c'est le genre de développements "hybrides" qu'on nous demandera en 2025 / 2026.
@kratus60
@kratus60 2 ай бұрын
@@codeconcept Je vois qu'on a des centres d'intérêt communs, je fais exactement le même travail actuellement. Je pense vraiment que l'embedding + vector db + LLM (RAG) va beaucoup apporter dans notre domaine. Que ça soit sur du contenu privé textuel.... ou du code :D
@TokenInvest
@TokenInvest 2 ай бұрын
Comment faites-vous pour bosser sur un projet existant avec Bolt ?
@ibrahimwess8511
@ibrahimwess8511 2 ай бұрын
Super merci pour l'astuce
@codeconcept
@codeconcept 2 ай бұрын
😀
@malekmalek4536
@malekmalek4536 2 ай бұрын
merci pour la video ❤❤❤❤❤❤❤❤
@codeconcept
@codeconcept 2 ай бұрын
😀
@SturakaMusic
@SturakaMusic 2 ай бұрын
Poissble de faire une vidéo plus détaillé pour les gens qui comprennent pas puis pas d'api donc marche pas aussi si c'est possible de faire une nouvelle vidéos qui explique mieux merci :))
@codeconcept
@codeconcept 2 ай бұрын
Je viens de mettre en ligne une vidéo plus détaillée 😉
@randomvideo4461
@randomvideo4461 2 ай бұрын
Bolt en local avec des gpu, voilà vous avez recruté un stagiaire
@codeconcept
@codeconcept 2 ай бұрын
Un sacré assistant en puissance, quand il sera en version finale. J'espère que les stagiaires continueront à trouver des stages. Car rien de tel pour se frotter au bord... aux applications grandeur nature 😄
@pepeleherisson
@pepeleherisson 2 ай бұрын
@@codeconcept il faut recruté un stagiaire pour gérer Bolt c'est ça la vraie combo gagnante!
@happyjulien6275
@happyjulien6275 2 ай бұрын
Ne sous-estimé pas les stagiaires
@NoName-wy5qr
@NoName-wy5qr Ай бұрын
Ont peut rajouter des bouton de vente? Ont peut poser un code manuel existant et l’améliorer ?? Merci nous ont développe une app depuis 2 ans l’ia me fait flipper ça va vite mais pour une application comme la mienne je pense qu’un codeur et obligatoire du moins c la question que je me pose Notre application et fini y’a quelques modification et rajout a faire avec cette la je pourrais construire des fonctionnalités et les rajouter le code à mon code existant nous travaillons sur un projet sérieux avec l’ambition du million d’inscrits les premiers jours un développement modial avec la stratégie de la bombe quand l’application sortira tous le mode doit le savoir en même temps par divers stratégies pour cela nous cherchons une équipe dans le sud de la France pour travailler ensemble un bureau garage aménager sera à notre disposition d’après une société il reste peur de travaille l’application existe fonctionne yan2 3 modification à apporter ont cherche un codeur un marketing et un moteur filmeur car nous publions sur KZbin nôtre développement si intéressé contact moi directement 0758917031 envoyer un message écrit ou vous expliquer et ont vous rappellera
@Cryptooub
@Cryptooub Ай бұрын
Bravo très intéressant
@nellytube-63rl
@nellytube-63rl 2 ай бұрын
Vraiment merci, exellent
@alexandrequemy
@alexandrequemy 2 ай бұрын
En plus de cout du GPU, il faut prendre en compte le cout de l'electricite. Pour les gros modeles, ca peut vraiment mettre a mal le portefeuille sur le long terme (typiquement, on peut taper facilement le 1kWh).
@codeconcept
@codeconcept 2 ай бұрын
@alexandrequemy Je viens de lire plus bas un retour d'utilisation de 500 à 1000 € annuel. Ca devient un budget de loisir. Et avec l'augmentation de l'électricité, d'un loisir motorisé 😄
@ai.aspirations
@ai.aspirations 2 ай бұрын
Thanks for sharing ❤
@abelpouillet5114
@abelpouillet5114 2 ай бұрын
Du coup on attend une vidéo sur la gestion d'un egpu par cuda pour setup une démo de ce projet en local ?
@codeconcept
@codeconcept 2 ай бұрын
Je suis en train de me servir de ce fork en local avec un autre modèle que celui par défaut. Donc je vais faire une 2ème vidéo plus détaillée. Mais il faut une machine haut de gamme récente (hélas pas en ma possession) ou bien essayer de déployer sur un cloud GPU. Je vais essayer cette option :)
@TimBnb
@TimBnb 2 ай бұрын
Super contenu ! Est-ce que le preview s’affiche à côté du codage comme pour l’interface Bolt classique ? Je veux dire par-là d’avoir un aperçu d’exécution du code en temps réel
@6tokyt468
@6tokyt468 2 ай бұрын
Oui si vous utilisez un modèle avec au minimum 16/32K de contexte, en dessous, n'y pensez pas, Bolt (à l'heure actuelle) est hyper gourmand, pour gérer le mode "Canvas", il l'est encore plus.
@tontondofus
@tontondofus 2 ай бұрын
Hello ! Merci pour ta vidéo. Avec un MacBook m3 pro , on peut le faire tourner en local ? Je parle de la version de stackblitz pas celle où on peut changer les IA
@codeconcept
@codeconcept 2 ай бұрын
Hello et merci à toi 😀 Vu les retours d'expérience que j'ai lu dans les commentaires, il faut vraiment avec une grosse config. Et plusieurs GPUs. Même dans ces conditions, ça sera moins fluide que la version en ligne. Si en revanche en 2025 de nouveaux petits modèles dédiés au code sortent, là, ça pourra devenir intéressant en local. Qeu ce soit le projet originel ou le fork.
@LaurentBrugiere
@LaurentBrugiere 2 ай бұрын
Merci pour cette vidéo. Bolt est une catastrophe. Effectivement, après l'effet Wow, et payé un abonnement, la frustration et la colère arrive très vite tant bolt est incapable de gérer correctement un projet plus long qu'une seule page. Il est incapable de corriger des erreurs. Il est feneant, on modifiant le code avec des mentions du type // ici le code précédent // Il fige trop souvent, ce qui oblige a cliquer sur retry... Et de bouffer du token. Pour moi, la question est vite répondue : Juste bon à créer une interface front simple. J'annule mon abonnement.
@evian8976
@evian8976 2 ай бұрын
Toujours la même chose avec ces outils malheureusement aider-chat c'est pas trop mal en comparaison, on me dit qu'il faut peut être travailler plus les prompts mais à partir de là autant coder manuellement quoi
@werty999
@werty999 2 ай бұрын
je confirme, pour un usage basique , il n impressionne que les non initiés , des que l'on gratte sur un projet un chouia complexe , il ne fait que tourner en boucle sur ses propres erreurs et paradoxalement se met à bouffer voracement vos tokens sur des erreurs que lui même à génère.
@cestcholeschoishow6250
@cestcholeschoishow6250 2 ай бұрын
Oui, j'ai remarqué ça, j'ai compris que la technologie était encore trop immature pour sortir des sous. Si je dois payer c'est pour un truc qui marche au moins en grande partie.
@Serge42400
@Serge42400 Ай бұрын
Et tu va faire quoi du tu codes plus ?
@LaurentBrugiere
@LaurentBrugiere Ай бұрын
@Serge42400 si, je code avec Windsurf. Une application géniale qui s'installe sur mon PC. Avec l'IA, c'est ouf, Elle code, lance, test et résoud les bugs.
@SamsBackground
@SamsBackground Ай бұрын
Bonjour, merci pour tes vidéos. Il y a une nouvelle MAJ de Pinocchio (3.0) et là Bolt est facilement installable surtout que maintenant il est rattaché à Hugginface, pourriez vous svp faire une vidéo pour expliquer comment tirer le meilleur de Bolt avec les meilleurs models gratuits? Merci encore
@abdellahb1398
@abdellahb1398 2 ай бұрын
C'est parfait , ca pourrait marcher avec un autre modèle d'IA que celui par défaut et du coup ca mettrait en concurrence les sociétés d'IA. Si j'ai pas de grosse carte graphique tu crois que je pourrai trouver une API moins chère que celle de Bolt ?
@codeconcept
@codeconcept 2 ай бұрын
Au moment où j'écris, je suis en train de me servir de Bolt en local et sans clé, avec Mistral 7B. Mais avec ma machine un peu ancienne, c'est très, très lent. Donc j'ai bien peur que te retrouves dans le même cas que moi. La solution alternative serait d'utiliser un GPU en ligne (cloud GPU), en déployant le fork sur un serveur. Je vais tester ça pour voir 😉
@onisake859
@onisake859 2 ай бұрын
@@codeconcept Bonsoir, merci beaucoup pour votre vidéo j'ai testé avec Mistral 7B également en l'installant grâce à LM Studio mais malheureusement quand je tente un prompt j'ai l'erreur suivante "only user and assistant roles are supported" avez vous rencontré ce problème ? J'ai testé avec un llama-2 1B ça fonctionne mais il ne gère pas les webcontainers j'ai l'impression
@stephanepaz2259
@stephanepaz2259 2 ай бұрын
Merci pour la vidéo! Tu n'as pas parlé de l'hébergement sur serveur plutot qu'en local , c'est pas une bonne méthode ?
@codeconcept
@codeconcept 2 ай бұрын
Merci 😀 C'est vrai que ce serait possible d'héberger sur un serveur. Je viens de faire une petite recherche google, il y a déjà plein d'hébergeurs qui proposent des "cloud GPU". Est-ce qu'il est possible de s'en servir pour héberger un projet et pas uniquement d'entrainer des modèles ? J'ai pas encore creusé dans cette direction. Mais c'est tentant :)
@Bannideserps
@Bannideserps 2 ай бұрын
​@@codeconcept Tu peux héberger ton llm sur hugging face ou replicate , pour tester cela fonctionne très bien .
@RS-yj4ex
@RS-yj4ex Ай бұрын
Merci pour ta vidéo. Penses-tu qu'un mac mini m4 en config de base suffit pour l'installation de modèles en local?
@ahmedkerr2550
@ahmedkerr2550 Ай бұрын
Sa tourne sans prob, par contre pense un gros ssd
@tomsbeer51400
@tomsbeer51400 2 ай бұрын
Bonjour, cela fait quelques jours que j'utilise TOLK et le produit ne m'a pas conquis. Beaucoup d'erreur dans la programmation. Sur Python, TOLK propose des bibliothèque non à jour. Lorsque l'on déploie notre programme. Il y a encore du taf derrière ! si l'on ne maitrise pas le langage on peut vite devenir larguer ! En tout cas votre vidéo est sympa, j'ai appris des choses intéressantes.
@codeconcept
@codeconcept 2 ай бұрын
Merci :) Pour le moment, toutes des IA qui aident à la programmation font au maximum 70% du travail. Savoir programmer reste un atout majeur.
@mrskeud
@mrskeud 2 ай бұрын
Bonjour et merci pour cette vidéo très instructive. J'ai une question de noob. Est-ce que les processeurs ARM (M4 Max en l'occurence) sont capables de faire tourner ces IA en locale ? Merci +++
@bourgogneguillaume
@bourgogneguillaume 2 ай бұрын
essaye lm studio
@6tokyt468
@6tokyt468 2 ай бұрын
Un M4 fera tourner des modèles comme Qwen 2.5 32P 4Q (classe basse/moyenne) mais avec une vitesse de 11-12 tokens seulement par seconde, ce qui est extrêmement lent. Pour vous donner un ordre de grandeur, ce même modèle sur mon architecture atteint environ 38 tokens par seconde avec Ollama et environ 28 tokens par seconde avec LMStudio, et je peux vous assurer que c'est déjà très long ! Si l'IA vous intéresse et que vous n'êtes pas dans l'urgence, je vous conseille d'attendre les prochaines générations pour investir dans une unité performante.
@codeconcept
@codeconcept 2 ай бұрын
@mrskeud 😀Des machines plus puissantes, de plus petits modèles très spécialisés : c'est probablement ce qui va faciliter l'utilisation de modèles en local. Et la patience effet.
@Leyriel
@Leyriel 2 ай бұрын
Une fois l'installation fait en local, il faut quand même renseigner les clé API des différents LLM,que l'ont souhaite utiliser. Ce qui sous entend que l'ont va quand même devoir payer des tokens. A moins qu'il soit possible de lancer un LLM localement ?
@codeconcept
@codeconcept 2 ай бұрын
Pas il si on utilise un LLM installé localement, par exemple via ollama.
@Orelwashere
@Orelwashere 12 күн бұрын
Ca me fait rire : C'est très bien expliqué, mais j'ai rien compris ! Je suis à la ramasse
@TheRedBrowser
@TheRedBrowser 10 күн бұрын
T'es pas tout seul, ça s'adresse pas aux incultes comme nous j'ai l'impression
@Bannideserps
@Bannideserps 2 ай бұрын
Pour lînstall bolt en local en un click Pinokio computer pour les non initiée
@Ludovic.Teouri.988
@Ludovic.Teouri.988 2 ай бұрын
Mais du coup en local ça fonctionne toujours aussi bien qu'en ligne ou pas ? Ça fait 2 semaines je l'utilise et c'est vrai qu'il a du mal avec quelques trucs dès qu'on lui demande trop...
@Bannideserps
@Bannideserps 2 ай бұрын
@@Ludovic.Teouri.988 J'utilise en local avec une 3080 j'ai pas moyen de comparer je n'utilise pas en online . Oui il commence avoir du mal après 2K de ligne de code j'ai remarquer du moins chez moi , Si tu n'as aucune notion de Dev pour un gros projet il faut absolument apprendre a segmenter pour le réaliser , fonction ,class , ect .. et donc bien le notifier dans tes prompts .
@willspaint5733
@willspaint5733 2 ай бұрын
je viens de mettre Pinokio bolt ce mais mais il reponds pas au demande api il maisune erreur There was an error processing your request: No details were returned
@codeconcept
@codeconcept 2 ай бұрын
@Ludovic.Teouri.988 Bolt est encore en beta. Mais on peut compter sur Stackblitz pour l'améliorer rapidement.
@scoremi
@scoremi 2 ай бұрын
Salut sais tu pourquoi la preview avec pinokio pose problème une fois le code généré ?
@Madum_tv
@Madum_tv Ай бұрын
la plupart du temps, il faut avoir des crédits, meme si on a l'abo chez tel ou tel fournisseur d'ia... Perso j'ai essayé de forcer ollama et mistral mais impossible, si tu as une solution...
@pepitoche9343
@pepitoche9343 2 ай бұрын
Salut ! Je découvre ta chaine vraiment super ! Question un peu bête, mais si on le run en local, et que les modèles (open AI, Mistral etc) font un nouveau modèle, j'imagine que il faut re actualiser notre "git clone" ? en gros en telechargeant maintenant le modèle on est restreint avec les LLM que Cole à implémenté ? +1 abo
@codeconcept
@codeconcept 2 ай бұрын
Salut :) Il suffirait dans ce cas d'ajouter une ligne dans le fichier app/utils/constants.ts pour lister des modèles qui n'apparaissent pas. Et pour mettre à jour le menu déroulant, c'est dans app/components/chat/BaseChat.tsx Mais au début, tant que le projet de Cole est en train d'évoluer rapidement, il serait sans doute préférable de récupérer régulièrement la version la plus récente du projet.
@Talaria.School
@Talaria.School 2 ай бұрын
@patrickdarbeau1301
@patrickdarbeau1301 2 ай бұрын
Suite... Les clefs, c'est dans .env ou .env.local qu'il faut les mettre ? Merci pour la réponse
@codeconcept
@codeconcept 2 ай бұрын
Il faut renommer .env.example en .env.local, puis renseigner les clés dans .env.local
@Madum_tv
@Madum_tv 2 ай бұрын
J'ai installé bolt comme indiqué, j'ai mis la clef anthropic mais il dit que je n'ai pas de token....
@codeconcept
@codeconcept 2 ай бұрын
Je l'avais pas précisé dans la vidéo, mais il faut renommer .env.example en .env.local, puis renseigner les clés dans .env.local
@lariost5683
@lariost5683 2 ай бұрын
Je vois qu'il y a dans la liste des LLMs proposés Ollama, comme Ollama fait tourner des modèles sur le CPU, est-il possible de faire tourner ce fork avec un LLM qui tournerait uniquement sur un CPU, est-ce que Bolt est trop exigeant pour que ça soit utilisable de la sorte ? A priori on peut penser que c'est plutôt consommateur si le type qui l'a forké dit qu'il le fait tourner avec 2 GPU, mais je serai curieux de voir ce que ça donne quand même.
@codeconcept
@codeconcept 2 ай бұрын
@lariost5683 Il y aura de plus en plus de retours d'expériences en commentaires. Mais probablement uniquement de testeurs qui ont de grosses config (ce qui n'est hélas pas mon cas). Avec ollama en effet, il est possible de faire tourner un LLM gratuit en local. Mais c'est le LLM qui va exiger beaucoup de resources (et un peu d'espace disque quand même). Bolt en lui-même n'est qu'une application web assez standard : ça n'est pas lui qui mettra l'ordinateur à genoux 😀
@Bannideserps
@Bannideserps 2 ай бұрын
@@codeconcept On parle beaucoup de GPU , mais il ne faut surtout pas négliger la Vram très important , celons les config avec 8 Go Vram tu est vite limité au niveau du tampon de calcul du GPU , il faut les 2 : GPU et un max de Vram .
@RémiMorichon
@RémiMorichon 2 ай бұрын
Est-il possible de faire un tutoriel détaillé pour tous les non développeur ? Car je nai pas tout compris 😢
@tesdy1450
@tesdy1450 2 ай бұрын
@@RémiMorichon en vrai, le tuto est déjà dans la vidéo, "gît clone" et tu as le projet sur ton Pc. Mais cela t'offrira que la vue avec le prompt, si tu as un abonnement a un des LLM, tu as juste a copie ta clé API dans le .env et utiliser le prompt. Je t'invite à lire le commentaire de 6tokyt468, ça va sûrement te couper l'envie ;) Ce n'est pas encore au point pour résumer
@codeconcept
@codeconcept 2 ай бұрын
@RémiMorichon Je ferai un tuto plus détaillé qui montrer comment installer les outils (git, l'IDE ...) 😉 @tesdy1450 Il faut en effet une grosse config avec quelques GPUs ... ou bien un père noël (très très) généreux 😄
@alexandreegea5523
@alexandreegea5523 2 ай бұрын
Et je voulais savoir si en l'hébergeant nous-mêmes, on aura la même qualité de site ? Comme ce n'est pas la même qualité de calcul
@codeconcept
@codeconcept 2 ай бұрын
Un serveur est souvent bien plus puissant et mieux doté en RAM et GPU, donc c'est effectivement bien mieux. On peut alors faire tourner de plus gros modèles, bien plus vite. La solution que j'ai pas eu le temps de tester, ce serait d'utiliser des cloud GPU pour installer Bolt bolt.new-any-llm dessus.
@echelon3410
@echelon3410 2 ай бұрын
Quand on voit les commentaires, je me dis qu'il y a encore du boulot avant que les non-devs arrivent à se servir d'une AI pour nous remplacer 😅
@codeconcept
@codeconcept 2 ай бұрын
On n'est pas en compétition : les non-devs ont souvent une meilleure connaissance métier et veulent créer des applications qui répondent à des problèmes qu'ils connaissent. Nous, on créé souvent des appli sans avoir testé que quelqu'un a le problème que notre app résout 😄 On sera remplacé ... par des devs qui savent se servir des I.A. Ou plutôt, le nombre de postes de devs diminuera car 2 devs pourront faire le boulot de 4 dans quelques années.
@Serge42400
@Serge42400 Ай бұрын
Pardon
@patrickdarbeau1301
@patrickdarbeau1301 2 ай бұрын
Bonjour, j'ai installé l'appli tout comme il est dit, seulement le serveur se lance, mais j'ai le message d'erreur suivant : Unexpected Server Error TypeError: Cannot read properties of null (reading 'useEffect') Que signifie ce message et que faire? Merci de votre réponse
@codeconcept
@codeconcept 2 ай бұрын
Bonjour, il est possible que vous ayez sauté une étape. Est-ce que vous avez bien installé les packages ? Ca se fait avec la commande "npm install" ?
@fredl9815
@fredl9815 2 ай бұрын
Avec toutes les avancées dans les langages de haut niveau je trouve que le plus simple et le moins cher c’est d’apprendre à coder
@codeconcept
@codeconcept 2 ай бұрын
@fredl9815 C'est mon avis également :les non-dev vont devoir apprendre à programmer un minimum (ne serait-ce que pour économiser en tokens), les devs à utiliser les I.A. pour gagner en vitesse sur les taches répétitives.
@francoisorega9692
@francoisorega9692 2 ай бұрын
bien dit chef !
@Don-21-
@Don-21- 2 ай бұрын
Merci sans doutes très utile mais je suis un noob du dev et j’y comprend rien 😅 mais merci quand même 😉
@codeconcept
@codeconcept 2 ай бұрын
Je viens de sortir un tuto plus détaillé. Peut-être que ce sera plus clair 😉
@bonjours249
@bonjours249 25 күн бұрын
oe mais les api si on les paye pas on n'a rien ? exemple si je veux utiliser bolt si j'ai pas l'api de bolt je peu pas l'utilisé
@o0oMeuho0o
@o0oMeuho0o 24 күн бұрын
je confirme que les pb consomment énormément des tokens > je n'ai pas réussi à finir mon projet en gratuit à cause de cela
@mathieuc396
@mathieuc396 2 ай бұрын
Après avoir mis la clé API d openai j ai un message d erreur quand je fais une recherche : « there was an error processing your request : no details were return » Y a t il une mauvaise manip que j ai faite ?
@luboyys1465
@luboyys1465 2 ай бұрын
Peut-être que ma réponse est stupide, mais pour pouvoir utiliser l'API OpenAi, tu dois avoir ajouté des crédits sur ton compte pour que OpenAi convertisse ces crédits en tokens qui te permettront d'avoir des réponses de l'IA, je ne sais pas si tu la fais
@mathieuc396
@mathieuc396 2 ай бұрын
@ merci ! Je crois que c’est très certainement ça qui bloque je n’avais pas compris qu il fallait des token en plus de la version payante pour pouvoir utiliser la clé ! Merci pour la réponse !
@codeconcept
@codeconcept 2 ай бұрын
@mathieuc396 C'est uniquement avec les LLMs installés en local que l'on peut se passer de clés.
@mathieuc396
@mathieuc396 2 ай бұрын
@ mais j ai une version payante d openai et j’ai généré la clé, je n ai pas essayé de m’en passer. En revanche j ai tjs ce message d erreur et je n’arrive pas à trouver comment contourner le problème ?
@henrierhard4439
@henrierhard4439 Ай бұрын
Merci pour ta vidéo ! J’ai un problème avec ma landing page genre en mode quand je fais le premier chargement de la page à chaque fois les éléments les animations clignotent et j’arrive pas à régler le problème. Et pourtant je lui dis de régler le problème mais il arrive pas. Quelqu’un peut m’aider ?🙏😂
@zzz12466
@zzz12466 2 ай бұрын
S'il y a un tuto pour utiliser ça gratuitement je veux absolument
@codeconcept
@codeconcept 2 ай бұрын
Je suis en train d'utiliser Bolt gratuitement en local avec Mistral 7B. Donc je pourrai détailler les étapes que j'ai suivies 😎 Mais c'est clair qu'avec ma machine de 3 ans de moyenne gamme, la génération de code est trèèèès lente.
@MaroGamerZ
@MaroGamerZ 2 ай бұрын
Slt peux tu faire une nouvelle vidéo comment utiliser la clé api de perplexity en local sur bolt aparament elle est compatible avec open ai je pige rien du tout comment l'installer
@codeconcept
@codeconcept 2 ай бұрын
Je viens de sortir une vidéo sur des problèmes fréquents 😉 Pour ce qui est de l'ajout de clé, j'avais oublié de dire qu'il fallait renommer .env.example et .env.local.
@PhunkyBob
@PhunkyBob 2 ай бұрын
Je ne comprends pas pourquoi il faut une "grosse machine" pour faire tourner l'application, alors que ce n'est qu'une interface qui fait appel à des IA distantes...
@codeconcept
@codeconcept 2 ай бұрын
@PhunkyBob Il faut une machine très puissante pour faire tourner les LLMs en local. Sinon, en utilisant une API distante, un ordinateur de base suffit amplement. Mais à ce moment là, il faudra payer un abonnement.
@Madum_tv
@Madum_tv 2 ай бұрын
@@codeconcept je ne vois pas comment l'utiliser sans abonnement
@duboismarie9616
@duboismarie9616 2 ай бұрын
Bonjour, suis je la seule à avoir : remix vite:dev 'remix' n’est pas reconnu en tant que commande interne ou externe, un programme exécutable ou un fichier de commandes. Merci
@zarnergun
@zarnergun 2 ай бұрын
Il suffit que tu ajoutes la dependance : npm install remix
@khloebayonnecastador4746
@khloebayonnecastador4746 2 ай бұрын
​@@zarnergunje fais ça ca s'installe mais quand je vérifie rien
@zarnergun
@zarnergun 2 ай бұрын
@@khloebayonnecastador4746 ah pardon sur mon manjaro j'ai eu la même absence de dépendance j'ai ajouté et ça fonctionne.
@codeconcept
@codeconcept 2 ай бұрын
@duboismarie9616 Bonjour, j'ai eu le problème lors d'une installation. Parfois il faut supprimer le répertoire node_modules et le fichier pnpm-lock et refaire une installation via : pnpm i @zarnergun Oui souvent, il suffit d'installer le seul package manquant.
@pauldoussiere4545
@pauldoussiere4545 2 ай бұрын
Si j' utilise une clef openAI ou Claude, est ce que je vais avoir besoin d un super ordinateur ou c est seulement lorsque on fait faire tourner des ia comme llama en local ?
@blackridder22
@blackridder22 Ай бұрын
cela consomme de CPU/GPU que quand tu l'ia commence a generer des codes, des telechargement, des ressources externes pour venir completer la tache que tu as demander, asure toi d'avoir un minimum 8 jusqu'a 60 GO RAM pour bien tourner, et au moin 25 Go d'espace pour le telechargement, (oui, un beau pactole haha)
@bones.24
@bones.24 2 ай бұрын
Comment est-ce gratuit alors qu’on doit mettre une API key?
@kyroftn
@kyroftn 2 ай бұрын
réel réel !!!
@codeconcept
@codeconcept 2 ай бұрын
En n'utilisant pas d'API key et en utilisant plutôt en local un LLM gratuit. Par exemple avec ollama, il suffit de faire un : ollama run [nom-de-modèle]. Mais il faut avoir une bonne machine et être un peu patient car les réponses vont être plus lentes que sur les serveurs de Stackblitz.
@bones.24
@bones.24 2 ай бұрын
@ en effet, mais qu’en est-il des autres LLM, Claude sonnet est plus optimisé pour crée des applications.
@codeconcept
@codeconcept 2 ай бұрын
@bones.24 L'auteur du fork de Bolt est emballé par Qwen-2.5-Coder-32b pour le dev. Mais de nouveau, va falloir avoir la machine qui suit
@bones.24
@bones.24 2 ай бұрын
@ bien reçu
@nicolasbertholet5541
@nicolasbertholet5541 2 ай бұрын
l ' électricité c est pas gratuit non plus sauf si tu bosses chez edf ... les 500 euros ce sera la facture electrique
@ascensionspirituelle7287
@ascensionspirituelle7287 2 ай бұрын
Tu l'ouvres pour d'autres et tu partages les frais
@codeconcept
@codeconcept 2 ай бұрын
@nicolasbertholet5541 C'est pas faux. Si une bonne âme veut faire un retour sur ses factures EDF avant et après l'achat d'un ou deux GPUs, ça m'intéresse. Bon, ça doit se trouver sur internet. Ou se calculer à partir des specs de la bête.
@codeconcept
@codeconcept 2 ай бұрын
@@ascensionspirituelle7287 Des mini-datacenters par immeuble. Comme ce que font les Américains avec leurs machines à laver au sous-sol 😄
@cedrictrachsel8579
@cedrictrachsel8579 2 ай бұрын
@@codeconcept je suis en Suisse chez bkw à 24.54 centime le kwh. Je me suis monté un dell en serveur avec 32Go de ram et deux cartes nvidia quadro p5000 (2x16Go de ram vidéoe) le tout pour 800€ (c'est de l'occasion). Pour des raisons de prix j'allume ma machine quand j'en ai besoin, hier pour 8h d'utilisation elle m'a consommée 610 Wh (0.610kwh) soit environ 15c. J'ai fait le constat suivant, pour mon utilisation ça me coûte moins chère d'utiliser gpt4o-mini ou llama3.1-70b (chez together) que d'utiliser ma machine pour l'inférance qui rame avec llama 3.1-70b mais est très véloce avec llama 3.2-11b. donc si je devais utiliser bolt en local j'utiliserai soit avec openai ou together ou mistral (pour info on peux avoir des api gratuire chez Groq (avec un q par un k) et mistral
@bertrand3055
@bertrand3055 2 ай бұрын
Cogénération : chauffage hivernal inclus ❗❗❗
@theeagle450
@theeagle450 2 ай бұрын
Désolé je pige rien a ce que tu fais, je ne suis pas technicien mais j'aimerais beaucoup avoir bolt gratos.
@codeconcept
@codeconcept 2 ай бұрын
Pas de problème, maintenant que j'ai passé plus de temps à jouer avec, je vais pouvoir faire une vidéo plus détaillée ;)
@MgbTrading
@MgbTrading 2 ай бұрын
​@@codeconcept bonsoir Merci encore pour tn partage 🙏 Tu as donc prévu de nous faire une vidéo tuto sur l'installation complète de bolt que Cole à développer ? Ps : je suis sur Windows, j'ai "essayé" mais rien ne se lance j'ai tellement de message d'erreur 😂🎉
@alainherve8030
@alainherve8030 2 ай бұрын
Il faut optimiser le prompt pour limiter le nbre de requêtes également, c'est complètement identique aux autres outils utilisant l'IA
@chrisder1814
@chrisder1814 28 минут бұрын
Salut Est-ce que tu as un groupe o est-ce que je pourrais t'écrire en MP
@Madum_tv
@Madum_tv 2 ай бұрын
mon pc windows ne reconnait pas la commande npm run dev avec vsc
@codeconcept
@codeconcept 2 ай бұрын
J'ai npm car j'avais déjà installé Node dans le passé. Et comme npm est installé en même temps que node : nodejs.org/en/download/package-manager J'ai aussi installé pnpm, qui est plus rapide pour l'installation de packages.
@Serge42400
@Serge42400 Ай бұрын
Vous dites ?
@flomix75
@flomix75 2 ай бұрын
Sincèrement, si le ou les tous premiers prompts sont ultra bien pensés, ça coute pas non plus une fortune, avec 50 balles tu peux en faire des choses. Le seul soucis de Bolt je trouve c’est qu’une fois qu’il y a un bug dans le code généré il tente de résoudre les problèmes mais n’y arrive jamais et c’est là qu’il vaut mieux comprendre qu’il est inutile de cramer tous ses tokens, il vaut mieux recommencer un nouveau projet avec de meilleurs prompts. En gros, comme pour tous projets, il faut que ça soit carré avant même de commencer à coder sinon ça sera forcément une galère
@codeconcept
@codeconcept 2 ай бұрын
Merci pour ce retour d'expérience. J'ai l'impression que lovable et windsurf bouffent moins de token quand on veut corriger un bug. Je ne sais plus sur lequel des deux on peut choisir de générer uniquement un morceau de code précis en cliquant sur le nom d'une fonction. Bolt va probablement s'améliorer à ce niveau là également.
@flomix75
@flomix75 2 ай бұрын
@@codeconcept ah oui c’est pas mal de reprendre un bout de code, et oui Bolt va forcément évoluer, dans 6 mois ça sera béton 😜
@olivierf695
@olivierf695 2 ай бұрын
J'ai pas compris une seule phrase...
@werty999
@werty999 2 ай бұрын
pourtant , c est facile en interpolant le flood tu upscales la frame digital en passant par un swith level plus underground , CPU data validation oblige, et en suivant mon simple conseil tu deviendras un pro en application fullstack sauf si évidemment tu utilises des boites containers.en tout cas un fork masterclass c est sur !
@codeconcept
@codeconcept 2 ай бұрын
@olivierf695 Quand même quelques unes 😀 Certains passages parlaient probablement davantage aux développeurs. Pour le reste, à force de voir passer les mêmes specs, ça va finir par devenir évident. Je me souviens de l'époque où le grand public ne savait pas ce qu'était une adresse IP ou un routeur, et maintenant, c'est aussi quelconque qu'une plaque d'immatriculation ou un rond point
@rank8467
@rank8467 2 ай бұрын
Est-ce que les Keys API sont gratuites?
@tesdy1450
@tesdy1450 2 ай бұрын
Non mais tu peux toujours tenter d'installer un LLM en local mais attention, il faut une bonne bécane (surtout la partie GPU)
@moneyfr
@moneyfr 2 ай бұрын
j'ai demandé fais moi un site de restaurant moderne => une maquette bof bof
@codeconcept
@codeconcept 2 ай бұрын
Pour les maquettes, V0 de Vercel est probablement plus adapté. Ca permet de partir sur quelque chose d'assez joli puis de continuer soi-même à la mano
@xXxOoFLORIANoOxXx
@xXxOoFLORIANoOxXx 2 ай бұрын
Gratuitement ? Mais si on met une clé API, les tokens sont PAYANT, nan ?
@codeconcept
@codeconcept 2 ай бұрын
C'est pour ça qu'il ne faut pas en mettre et installer des modèles gratuits en local 😄 Ce que j'ai fait ce soir. Mais il faut avoir un ordinateur puissant et gavé de mémoire ainsi qu'un bon GPU. Sinon, quand on n'a pas de machine adéquate (la mienne ne coche aucune des 3 cases précitées), il est possible, grâce à ce fork de Bolt, d'utiliser de nombreux autres modèles payants mais moins coûteux. Ou encore, en fonction de la tâche à developper au sein d'une même application, switcher d'un modèle à l'autre en fonction de la fonctionnalité que l'on est en train de développer.
@matthieubouillot469
@matthieubouillot469 2 ай бұрын
@@codeconceptcomment ça des modèles gratuits en local ? Parce que avec le fork on peut que mettre des Clé Api payante ?
@willspaint5733
@willspaint5733 2 ай бұрын
cela ne fonctionne pas
@ToinouGang
@ToinouGang 2 ай бұрын
Essaie avec Pinokio
@chrisder1814
@chrisder1814 Күн бұрын
Salurt u n'aurais pas un groupe facebook ou autre? Je te demande ça parce que j'essaie de comprendre qu'est-ce que Bolt, cursor on de différent et surtout les avantages et inconvénients par rapport à un LLM qui me générerait du code Et aussi que j'ai plusieurs cités d'application et j'aimerais bien que des gens qui s'y connaissent me disent ce qu'ils en pensent
@benevolarX
@benevolarX 2 ай бұрын
Je suis l'actualité des prix des composants de pc (les prix indiqués sont à titre indicatif, beaucoup de vendeur rajoutent leur marge) rtx 3060 8go : trop cher, même prix que le modèle 12go rtx 3060 12go : 250-300e (prix gonflé car très répandue chez les joueurs) rtx 3060 ti 8go : 300-350e rtx 3070 8go : 350-400e rtx 3080 10go = trop cher car production des rtx 3000 arrêté depuis + 1 an (début de sorti des rtx 4000) rtx 4060 8go : 250-300e rtx 4060ti 8go : 330-380e rtx 4060ti 16go : 400-500e (trop cher, la 4070 est toujours préférable à celle ci malgré les 16go de vram) rtx 4070 12go : 500-550e (légèrement trop cher par rapport à la 4070 super et modèle dont la production a cessé depuis la sorti de la 4070 super) rtx 4070 super 12go : 550-600e (meilleur rapport perf / prix de la génération 4000) rtx 4070 ti 12go : 700-800e trop cher (quasi même puissance de calcul que la 4070 super et modèle dont la production a cessé depuis la sorti de la 4070 ti super) rtx 4070 ti super 16go : 850-1000e (trop cher) rtx 4080 16go : modèle dont la production a cessé depuis la sorti de la 4080 super rtx 4080 super 16go : 950-1200e (trop cher) J'ai volontairement omis la rtx 3050 (carte de bureautique) et les modèles à +1000e (rtx 3080 ti, rtx 3090, rtx 4090) Pour ce qui est de l'utilisation de 2 gpu identique (via crossfire ou sli) c'est une feature qui n'est pas présente sur tout les modèles et qui a été abandonné avec le temps car trop niche en terme d'utilisation et moins rentable pour l'utilisateur que de revendre son gpu pour un modèle plus récent.
@Unnaymed
@Unnaymed 2 ай бұрын
Conclusion, nvidia c'est trop cher 😆 vivement de la concurrence et des cartes avec 16-24go de ram pas cher.
@codeconcept
@codeconcept 2 ай бұрын
@benevolarX Merci 😀 L'auteur du fork avait deux cartes de 24 Go si je me souviens bien.
@codeconcept
@codeconcept 2 ай бұрын
@@Unnaymed Le problème, c'est que nvidia serait plutôt parti pour tuer ses concurrents. Ca couplé à l'augmentation du prix de l'électricité, faire tourner en local des I.A. (sans attendre des plombes) va être réservé à minima aux PME.
@zzz12466
@zzz12466 2 ай бұрын
@@Unnaymed j'en ai acheté sur aliexpress, ça passe lol
@bourgogneguillaume
@bourgogneguillaume 2 ай бұрын
super vidéo, merci
@codeconcept
@codeconcept 2 ай бұрын
Merci 😀
J'ai automatisé Bolt et ChatGPT pour créer des Apps - FOU !
19:58
Quando A Diferença De Altura É Muito Grande 😲😂
00:12
Mari Maria
Рет қаралды 45 МЛН
Sigma Kid Mistake #funny #sigma
00:17
CRAZY GREAPA
Рет қаралды 30 МЛН
小丑女COCO的审判。#天使 #小丑 #超人不会飞
00:53
超人不会飞
Рет қаралды 16 МЛН
Une nouvelle voiture pour Noël 🥹
00:28
Nicocapone
Рет қаралды 9 МЛН
Les développeurs doivent-ils avoir peur de GPT5 ?
26:03
Micode
Рет қаралды 785 М.
Comment créer des applications GRATUITEMENT en local  🚀 (Bolt.DIY + Ollama)
7:16
Guy Wasseu - IA & Entrepreunariat
Рет қаралды 2,1 М.
J'ai créé 2 SaaS et 1 site en 2h grâce à cette IA! (je ne suis pas dev)
14:53
The 8 AI Skills That Will Separate Winners From Losers in 2025
19:32
Je crée 3 Apps en 15 min avec l'IA Bolt et ChatGPT (sans coder)
17:09
Formation Bolt.new 2025 : Tuto COMPLET pour bien l'utiliser !
46:37
Bolt.DIY: Add your own AI features to BOLT (Bolt.new on steroids and free!)
17:45
Quando A Diferença De Altura É Muito Grande 😲😂
00:12
Mari Maria
Рет қаралды 45 МЛН