Voici comment utiliser GRATUITEMENT Bolt avec l'I.A. de votre choix

  Рет қаралды 37,418

codeconcept

codeconcept

Күн бұрын

Пікірлер: 173
@MsBowner
@MsBowner 28 күн бұрын
Incroyable mec, je suis dev, je n'ai aucun intérêt, mais c'est tout de meme incroyable ce que tu nous présente.
@Baraka0369
@Baraka0369 28 күн бұрын
T’as tout intérêt justement Si tu loupes ça tu seras finies dans qlq années
@vahdettint
@vahdettint 29 күн бұрын
Excellente découverte à suivre 😮🎉
@codeconcept
@codeconcept 29 күн бұрын
Ca a l'air prometteur, surtout si le gars continue sur sa lancée. Il risque même ... de se faire recruter par Stackblitz 😋
@happyjulien6275
@happyjulien6275 27 күн бұрын
Franchement énorme merci à toi frère tu mérites bien plus d'abonnés
@codeconcept
@codeconcept 27 күн бұрын
Merci Julien 😀 ! Le nombre d'abonnés dépend de l'exposition que m'accorde l'algo de KZbin. Et je n'ai pas la main dessus. On vit déjà dans un monde où les algo décident de beaucoup de choses 😅
@sebastienrodriguez2491
@sebastienrodriguez2491 28 күн бұрын
Tout de même compliqué à suivre pour des néophites. En tout cas très intéressant de savoir que cela est possible , ne serait ce que pour se tenir au courant 👍
@codeconcept
@codeconcept 27 күн бұрын
Merci 😀 C'est un peu comme pour les réseaux il a 20 ans : au départ, je me souviens que je devais expliquer aux entreprises clientes chez qui j'allais comment configurer leur carte réseau, partager une imprimante, relancer un service etc et maintenant c'est passé dans l'univers quotidien. Dans 10 ans, le marketing aidant, tout le monde saura quel modèle d'IA est utilise au boulot ou à la maison, combien de paramètres a leur I.A, la taille du contexte etc. D'autant qu'on aura le temps de se renseigner si les I.A bossent à notre place 😅
@tontondofus
@tontondofus 27 күн бұрын
Hello ! Merci pour ta vidéo. Avec un MacBook m3 pro , on peut le faire tourner en local ? Je parle de la version de stackblitz pas celle où on peut changer les IA
@codeconcept
@codeconcept 27 күн бұрын
Hello et merci à toi 😀 Vu les retours d'expérience que j'ai lu dans les commentaires, il faut vraiment avec une grosse config. Et plusieurs GPUs. Même dans ces conditions, ça sera moins fluide que la version en ligne. Si en revanche en 2025 de nouveaux petits modèles dédiés au code sortent, là, ça pourra devenir intéressant en local. Qeu ce soit le projet originel ou le fork.
@Bannideserps
@Bannideserps 27 күн бұрын
Pour lînstall bolt en local en un click Pinokio computer pour les non initiée
@Ludovic.Teouri.988
@Ludovic.Teouri.988 27 күн бұрын
Mais du coup en local ça fonctionne toujours aussi bien qu'en ligne ou pas ? Ça fait 2 semaines je l'utilise et c'est vrai qu'il a du mal avec quelques trucs dès qu'on lui demande trop...
@Bannideserps
@Bannideserps 27 күн бұрын
@@Ludovic.Teouri.988 J'utilise en local avec une 3080 j'ai pas moyen de comparer je n'utilise pas en online . Oui il commence avoir du mal après 2K de ligne de code j'ai remarquer du moins chez moi , Si tu n'as aucune notion de Dev pour un gros projet il faut absolument apprendre a segmenter pour le réaliser , fonction ,class , ect .. et donc bien le notifier dans tes prompts .
@willspaint5733
@willspaint5733 27 күн бұрын
je viens de mettre Pinokio bolt ce mais mais il reponds pas au demande api il maisune erreur There was an error processing your request: No details were returned
@codeconcept
@codeconcept 27 күн бұрын
@Ludovic.Teouri.988 Bolt est encore en beta. Mais on peut compter sur Stackblitz pour l'améliorer rapidement.
@scoremi
@scoremi 26 күн бұрын
Salut sais tu pourquoi la preview avec pinokio pose problème une fois le code généré ?
@Leyriel
@Leyriel 16 күн бұрын
Une fois l'installation fait en local, il faut quand même renseigner les clé API des différents LLM,que l'ont souhaite utiliser. Ce qui sous entend que l'ont va quand même devoir payer des tokens. A moins qu'il soit possible de lancer un LLM localement ?
@codeconcept
@codeconcept 15 күн бұрын
Pas il si on utilise un LLM installé localement, par exemple via ollama.
@henochcamer3765
@henochcamer3765 29 күн бұрын
Merci pour l’info. Et effectivement j’ai l’impression que les non dev sont un peu les vaches à lait de ce type de nouveaux outils all-in-one…mais ça reste intéressant de voir ce qu’ils arrivent à produire avec.
@codeconcept
@codeconcept 29 күн бұрын
J'aime beaucoup tout ce qu'ils font chez Stackblitz. Vue la qualité de tout ce qu'ils ont sorti avant, il y a de très grandes chances qu'ils corrigent cette tendance de Bolt à tourner en rond sans fin dans certaines circonstances. C'est ce qu'il y a de plus frustrant pour le moment. Et qui coûte cher aux non-dev qui dependent du bouton 'fix problem' qui leur consomme leurs tokens. Mais en 2025, ce Bolt peut devenir bien meilleur et beaucoup moins coûteux. Et donc effectivement, intéressant pour les non devs qui pourront concrétiser sans se ruiner.
@SamsBackground
@SamsBackground Күн бұрын
Bonjour, merci pour tes vidéos. Il y a une nouvelle MAJ de Pinocchio (3.0) et là Bolt est facilement installable surtout que maintenant il est rattaché à Hugginface, pourriez vous svp faire une vidéo pour expliquer comment tirer le meilleur de Bolt avec les meilleurs models gratuits? Merci encore
@michaelkihl
@michaelkihl 18 күн бұрын
Salut ! J'ai vu ta vidéo dans mon fil KZbin et j'ai tout de suite reconnu mon formateur d'Udemy. Ta vidéo est sympathique, mais j'ai encore des difficultés en développement. Je me forme seul et il n'y a personne autour de moi avec qui échanger. J'ai mis un like sur la vidéo. À très bientôt !
@codeconcept
@codeconcept 15 күн бұрын
Salut et merci :) Ca fait des années que je n'ai plus poste de formations sur Udemy. Je mets mes nouvelles formation sur mon teachable perso. Les difficultés en développement, tout le monde en a. Y compris les très seniors. Ils ont même de plus grandes difficultés car ils développent des choses plus compliquées. Mais ce qui compte, c'est de persévérer jusqu'à trouver la solution. Et parfois, le problème relevait de l'étourderie la plus basique 😅 En tous cas, il faut persévérer et garder à l'esprit que le progrès, c'est deux pas en avant, un pas en arrière. Et garder courage quand on a l'impression de ne pas progresser.
@ThePrimeTech
@ThePrimeTech 28 күн бұрын
Elle est géniale ta chaîne
@codeconcept
@codeconcept 27 күн бұрын
Merci😀 Une petite chaine faite dans sa chambre. A l'ancienne 😄
@patrickdarbeau1301
@patrickdarbeau1301 25 күн бұрын
Suite... Les clefs, c'est dans .env ou .env.local qu'il faut les mettre ? Merci pour la réponse
@codeconcept
@codeconcept 25 күн бұрын
Il faut renommer .env.example en .env.local, puis renseigner les clés dans .env.local
@kratus60
@kratus60 25 күн бұрын
Merci pour le partage, c'est très intéressant, j'ai vite arrêté bolt c'est beaucoup trop limitant quand on est déjà dev. Par contre bosser sur un projet existant avec alors là !!!! 🔥
@codeconcept
@codeconcept 25 күн бұрын
Merci :) Etant dev également, je continue à développer à la main. Mais il faut continuer à se familiariser avec ces outils car ils vont être de plus en plus présents. Perso, je suis en train d'apprendre à faire de l'embedding + persistance des vecteurs obtenus dans une DB vectorielle, histoire de pouvoir faire des recherches sur du contenu privé. Je pense que c'est le genre de développements "hybrides" qu'on nous demandera en 2025 / 2026.
@kratus60
@kratus60 25 күн бұрын
@@codeconcept Je vois qu'on a des centres d'intérêt communs, je fais exactement le même travail actuellement. Je pense vraiment que l'embedding + vector db + LLM (RAG) va beaucoup apporter dans notre domaine. Que ça soit sur du contenu privé textuel.... ou du code :D
@TokenInvest
@TokenInvest 25 күн бұрын
Comment faites-vous pour bosser sur un projet existant avec Bolt ?
@TheRemiRODRIGUES
@TheRemiRODRIGUES 29 күн бұрын
C'est intéressant de savoir que le code de Bolt est open source. Ce qui peut-être intéressant, c'est de voir les idées qu'ils ont mis en oeuvre pour générer de façon autonomes des applications. Je ne sais pas où en est AutoGPT, si ce n'est qu'ils 169k starts. Mais c'est aussi open source, et ça peut-être intéressant aussi de savoir qu'elles sont les paradigmes utilisés pour réaliser des agents autonomes, comprendre qu'elles sont actuellement leurs limites et tenté de réfléchir à des solutions.
@codeconcept
@codeconcept 29 күн бұрын
C'est le genre de questions qu'il faudrait que je pose, à l'occasion d'un épisode 2 de podcast, à l'expert en I.A. qui était venu ici. Ca me fait penser que je n'ai même pas mis d'étoile au fork de bolt. C'est fait 😀
@LaurentBrugiere
@LaurentBrugiere 28 күн бұрын
Merci pour cette vidéo. Bolt est une catastrophe. Effectivement, après l'effet Wow, et payé un abonnement, la frustration et la colère arrive très vite tant bolt est incapable de gérer correctement un projet plus long qu'une seule page. Il est incapable de corriger des erreurs. Il est feneant, on modifiant le code avec des mentions du type // ici le code précédent // Il fige trop souvent, ce qui oblige a cliquer sur retry... Et de bouffer du token. Pour moi, la question est vite répondue : Juste bon à créer une interface front simple. J'annule mon abonnement.
@evian8976
@evian8976 28 күн бұрын
Toujours la même chose avec ces outils malheureusement aider-chat c'est pas trop mal en comparaison, on me dit qu'il faut peut être travailler plus les prompts mais à partir de là autant coder manuellement quoi
@werty999
@werty999 27 күн бұрын
je confirme, pour un usage basique , il n impressionne que les non initiés , des que l'on gratte sur un projet un chouia complexe , il ne fait que tourner en boucle sur ses propres erreurs et paradoxalement se met à bouffer voracement vos tokens sur des erreurs que lui même à génère.
@cestcholeschoishow6250
@cestcholeschoishow6250 23 күн бұрын
Oui, j'ai remarqué ça, j'ai compris que la technologie était encore trop immature pour sortir des sous. Si je dois payer c'est pour un truc qui marche au moins en grande partie.
@TimBnb
@TimBnb 28 күн бұрын
Super contenu ! Est-ce que le preview s’affiche à côté du codage comme pour l’interface Bolt classique ? Je veux dire par-là d’avoir un aperçu d’exécution du code en temps réel
@6tokyt468
@6tokyt468 28 күн бұрын
Oui si vous utilisez un modèle avec au minimum 16/32K de contexte, en dessous, n'y pensez pas, Bolt (à l'heure actuelle) est hyper gourmand, pour gérer le mode "Canvas", il l'est encore plus.
@patrickdarbeau1301
@patrickdarbeau1301 25 күн бұрын
Bonjour, j'ai installé l'appli tout comme il est dit, seulement le serveur se lance, mais j'ai le message d'erreur suivant : Unexpected Server Error TypeError: Cannot read properties of null (reading 'useEffect') Que signifie ce message et que faire? Merci de votre réponse
@codeconcept
@codeconcept 25 күн бұрын
Bonjour, il est possible que vous ayez sauté une étape. Est-ce que vous avez bien installé les packages ? Ca se fait avec la commande "npm install" ?
@mrskeud
@mrskeud 28 күн бұрын
Bonjour et merci pour cette vidéo très instructive. J'ai une question de noob. Est-ce que les processeurs ARM (M4 Max en l'occurence) sont capables de faire tourner ces IA en locale ? Merci +++
@bourgogneguillaume
@bourgogneguillaume 28 күн бұрын
essaye lm studio
@6tokyt468
@6tokyt468 28 күн бұрын
Un M4 fera tourner des modèles comme Qwen 2.5 32P 4Q (classe basse/moyenne) mais avec une vitesse de 11-12 tokens seulement par seconde, ce qui est extrêmement lent. Pour vous donner un ordre de grandeur, ce même modèle sur mon architecture atteint environ 38 tokens par seconde avec Ollama et environ 28 tokens par seconde avec LMStudio, et je peux vous assurer que c'est déjà très long ! Si l'IA vous intéresse et que vous n'êtes pas dans l'urgence, je vous conseille d'attendre les prochaines générations pour investir dans une unité performante.
@codeconcept
@codeconcept 27 күн бұрын
@mrskeud 😀Des machines plus puissantes, de plus petits modèles très spécialisés : c'est probablement ce qui va faciliter l'utilisation de modèles en local. Et la patience effet.
@stephanepaz2259
@stephanepaz2259 27 күн бұрын
Merci pour la vidéo! Tu n'as pas parlé de l'hébergement sur serveur plutot qu'en local , c'est pas une bonne méthode ?
@codeconcept
@codeconcept 27 күн бұрын
Merci 😀 C'est vrai que ce serait possible d'héberger sur un serveur. Je viens de faire une petite recherche google, il y a déjà plein d'hébergeurs qui proposent des "cloud GPU". Est-ce qu'il est possible de s'en servir pour héberger un projet et pas uniquement d'entrainer des modèles ? J'ai pas encore creusé dans cette direction. Mais c'est tentant :)
@Bannideserps
@Bannideserps 26 күн бұрын
​@@codeconcept Tu peux héberger ton llm sur hugging face ou replicate , pour tester cela fonctionne très bien .
@RémiMorichon
@RémiMorichon 28 күн бұрын
Est-il possible de faire un tutoriel détaillé pour tous les non développeur ? Car je nai pas tout compris 😢
@tesdy1450
@tesdy1450 28 күн бұрын
@@RémiMorichon en vrai, le tuto est déjà dans la vidéo, "gît clone" et tu as le projet sur ton Pc. Mais cela t'offrira que la vue avec le prompt, si tu as un abonnement a un des LLM, tu as juste a copie ta clé API dans le .env et utiliser le prompt. Je t'invite à lire le commentaire de 6tokyt468, ça va sûrement te couper l'envie ;) Ce n'est pas encore au point pour résumer
@codeconcept
@codeconcept 27 күн бұрын
@RémiMorichon Je ferai un tuto plus détaillé qui montrer comment installer les outils (git, l'IDE ...) 😉 @tesdy1450 Il faut en effet une grosse config avec quelques GPUs ... ou bien un père noël (très très) généreux 😄
@alexandrequemy
@alexandrequemy 28 күн бұрын
En plus de cout du GPU, il faut prendre en compte le cout de l'electricite. Pour les gros modeles, ca peut vraiment mettre a mal le portefeuille sur le long terme (typiquement, on peut taper facilement le 1kWh).
@codeconcept
@codeconcept 27 күн бұрын
@alexandrequemy Je viens de lire plus bas un retour d'utilisation de 500 à 1000 € annuel. Ca devient un budget de loisir. Et avec l'augmentation de l'électricité, d'un loisir motorisé 😄
@Madum_tv
@Madum_tv 27 күн бұрын
mon pc windows ne reconnait pas la commande npm run dev avec vsc
@codeconcept
@codeconcept 27 күн бұрын
J'ai npm car j'avais déjà installé Node dans le passé. Et comme npm est installé en même temps que node : nodejs.org/en/download/package-manager J'ai aussi installé pnpm, qui est plus rapide pour l'installation de packages.
@Madum_tv
@Madum_tv 26 күн бұрын
J'ai installé bolt comme indiqué, j'ai mis la clef anthropic mais il dit que je n'ai pas de token....
@codeconcept
@codeconcept 25 күн бұрын
Je l'avais pas précisé dans la vidéo, mais il faut renommer .env.example en .env.local, puis renseigner les clés dans .env.local
@mathieuc396
@mathieuc396 23 күн бұрын
Après avoir mis la clé API d openai j ai un message d erreur quand je fais une recherche : « there was an error processing your request : no details were return » Y a t il une mauvaise manip que j ai faite ?
@luboyys1465
@luboyys1465 23 күн бұрын
Peut-être que ma réponse est stupide, mais pour pouvoir utiliser l'API OpenAi, tu dois avoir ajouté des crédits sur ton compte pour que OpenAi convertisse ces crédits en tokens qui te permettront d'avoir des réponses de l'IA, je ne sais pas si tu la fais
@mathieuc396
@mathieuc396 23 күн бұрын
@ merci ! Je crois que c’est très certainement ça qui bloque je n’avais pas compris qu il fallait des token en plus de la version payante pour pouvoir utiliser la clé ! Merci pour la réponse !
@codeconcept
@codeconcept 22 күн бұрын
@mathieuc396 C'est uniquement avec les LLMs installés en local que l'on peut se passer de clés.
@mathieuc396
@mathieuc396 22 күн бұрын
@ mais j ai une version payante d openai et j’ai généré la clé, je n ai pas essayé de m’en passer. En revanche j ai tjs ce message d erreur et je n’arrive pas à trouver comment contourner le problème ?
@lariost5683
@lariost5683 27 күн бұрын
Je vois qu'il y a dans la liste des LLMs proposés Ollama, comme Ollama fait tourner des modèles sur le CPU, est-il possible de faire tourner ce fork avec un LLM qui tournerait uniquement sur un CPU, est-ce que Bolt est trop exigeant pour que ça soit utilisable de la sorte ? A priori on peut penser que c'est plutôt consommateur si le type qui l'a forké dit qu'il le fait tourner avec 2 GPU, mais je serai curieux de voir ce que ça donne quand même.
@codeconcept
@codeconcept 27 күн бұрын
@lariost5683 Il y aura de plus en plus de retours d'expériences en commentaires. Mais probablement uniquement de testeurs qui ont de grosses config (ce qui n'est hélas pas mon cas). Avec ollama en effet, il est possible de faire tourner un LLM gratuit en local. Mais c'est le LLM qui va exiger beaucoup de resources (et un peu d'espace disque quand même). Bolt en lui-même n'est qu'une application web assez standard : ça n'est pas lui qui mettra l'ordinateur à genoux 😀
@Bannideserps
@Bannideserps 26 күн бұрын
@@codeconcept On parle beaucoup de GPU , mais il ne faut surtout pas négliger la Vram très important , celons les config avec 8 Go Vram tu est vite limité au niveau du tampon de calcul du GPU , il faut les 2 : GPU et un max de Vram .
@alexandreegea5523
@alexandreegea5523 24 күн бұрын
Et je voulais savoir si en l'hébergeant nous-mêmes, on aura la même qualité de site ? Comme ce n'est pas la même qualité de calcul
@codeconcept
@codeconcept 22 күн бұрын
Un serveur est souvent bien plus puissant et mieux doté en RAM et GPU, donc c'est effectivement bien mieux. On peut alors faire tourner de plus gros modèles, bien plus vite. La solution que j'ai pas eu le temps de tester, ce serait d'utiliser des cloud GPU pour installer Bolt bolt.new-any-llm dessus.
@henrierhard4439
@henrierhard4439 4 күн бұрын
Merci pour ta vidéo ! J’ai un problème avec ma landing page genre en mode quand je fais le premier chargement de la page à chaque fois les éléments les animations clignotent et j’arrive pas à régler le problème. Et pourtant je lui dis de régler le problème mais il arrive pas. Quelqu’un peut m’aider ?🙏😂
@randomvideo4461
@randomvideo4461 29 күн бұрын
Bolt en local avec des gpu, voilà vous avez recruté un stagiaire
@codeconcept
@codeconcept 29 күн бұрын
Un sacré assistant en puissance, quand il sera en version finale. J'espère que les stagiaires continueront à trouver des stages. Car rien de tel pour se frotter au bord... aux applications grandeur nature 😄
@pepeleherisson
@pepeleherisson 28 күн бұрын
@@codeconcept il faut recruté un stagiaire pour gérer Bolt c'est ça la vraie combo gagnante!
@happyjulien6275
@happyjulien6275 27 күн бұрын
Ne sous-estimé pas les stagiaires
@MaroGamerZ
@MaroGamerZ 22 күн бұрын
Slt peux tu faire une nouvelle vidéo comment utiliser la clé api de perplexity en local sur bolt aparament elle est compatible avec open ai je pige rien du tout comment l'installer
@codeconcept
@codeconcept 22 күн бұрын
Je viens de sortir une vidéo sur des problèmes fréquents 😉 Pour ce qui est de l'ajout de clé, j'avais oublié de dire qu'il fallait renommer .env.example et .env.local.
@SturakaMusic
@SturakaMusic 24 күн бұрын
Poissble de faire une vidéo plus détaillé pour les gens qui comprennent pas puis pas d'api donc marche pas aussi si c'est possible de faire une nouvelle vidéos qui explique mieux merci :))
@codeconcept
@codeconcept 22 күн бұрын
Je viens de mettre en ligne une vidéo plus détaillée 😉
@ibrahimwess8511
@ibrahimwess8511 29 күн бұрын
Super merci pour l'astuce
@codeconcept
@codeconcept 27 күн бұрын
😀
@dservais1
@dservais1 28 күн бұрын
très intéressant merci !
@malekmalek4536
@malekmalek4536 28 күн бұрын
merci pour la video ❤❤❤❤❤❤❤❤
@codeconcept
@codeconcept 27 күн бұрын
😀
@duboismarie9616
@duboismarie9616 24 күн бұрын
Bonjour, suis je la seule à avoir : remix vite:dev 'remix' n’est pas reconnu en tant que commande interne ou externe, un programme exécutable ou un fichier de commandes. Merci
@zarnergun
@zarnergun 23 күн бұрын
Il suffit que tu ajoutes la dependance : npm install remix
@khloebayonnecastador4746
@khloebayonnecastador4746 22 күн бұрын
​@@zarnergunje fais ça ca s'installe mais quand je vérifie rien
@zarnergun
@zarnergun 22 күн бұрын
@@khloebayonnecastador4746 ah pardon sur mon manjaro j'ai eu la même absence de dépendance j'ai ajouté et ça fonctionne.
@codeconcept
@codeconcept 22 күн бұрын
@duboismarie9616 Bonjour, j'ai eu le problème lors d'une installation. Parfois il faut supprimer le répertoire node_modules et le fichier pnpm-lock et refaire une installation via : pnpm i @zarnergun Oui souvent, il suffit d'installer le seul package manquant.
@pepitoche9343
@pepitoche9343 22 күн бұрын
Salut ! Je découvre ta chaine vraiment super ! Question un peu bête, mais si on le run en local, et que les modèles (open AI, Mistral etc) font un nouveau modèle, j'imagine que il faut re actualiser notre "git clone" ? en gros en telechargeant maintenant le modèle on est restreint avec les LLM que Cole à implémenté ? +1 abo
@codeconcept
@codeconcept 22 күн бұрын
Salut :) Il suffirait dans ce cas d'ajouter une ligne dans le fichier app/utils/constants.ts pour lister des modèles qui n'apparaissent pas. Et pour mettre à jour le menu déroulant, c'est dans app/components/chat/BaseChat.tsx Mais au début, tant que le projet de Cole est en train d'évoluer rapidement, il serait sans doute préférable de récupérer régulièrement la version la plus récente du projet.
@abelpouillet5114
@abelpouillet5114 26 күн бұрын
Du coup on attend une vidéo sur la gestion d'un egpu par cuda pour setup une démo de ce projet en local ?
@codeconcept
@codeconcept 25 күн бұрын
Je suis en train de me servir de ce fork en local avec un autre modèle que celui par défaut. Donc je vais faire une 2ème vidéo plus détaillée. Mais il faut une machine haut de gamme récente (hélas pas en ma possession) ou bien essayer de déployer sur un cloud GPU. Je vais essayer cette option :)
@abdellahb1398
@abdellahb1398 26 күн бұрын
C'est parfait , ca pourrait marcher avec un autre modèle d'IA que celui par défaut et du coup ca mettrait en concurrence les sociétés d'IA. Si j'ai pas de grosse carte graphique tu crois que je pourrai trouver une API moins chère que celle de Bolt ?
@codeconcept
@codeconcept 25 күн бұрын
Au moment où j'écris, je suis en train de me servir de Bolt en local et sans clé, avec Mistral 7B. Mais avec ma machine un peu ancienne, c'est très, très lent. Donc j'ai bien peur que te retrouves dans le même cas que moi. La solution alternative serait d'utiliser un GPU en ligne (cloud GPU), en déployant le fork sur un serveur. Je vais tester ça pour voir 😉
@onisake859
@onisake859 22 күн бұрын
@@codeconcept Bonsoir, merci beaucoup pour votre vidéo j'ai testé avec Mistral 7B également en l'installant grâce à LM Studio mais malheureusement quand je tente un prompt j'ai l'erreur suivante "only user and assistant roles are supported" avez vous rencontré ce problème ? J'ai testé avec un llama-2 1B ça fonctionne mais il ne gère pas les webcontainers j'ai l'impression
@tomsbeer51400
@tomsbeer51400 20 күн бұрын
Bonjour, cela fait quelques jours que j'utilise TOLK et le produit ne m'a pas conquis. Beaucoup d'erreur dans la programmation. Sur Python, TOLK propose des bibliothèque non à jour. Lorsque l'on déploie notre programme. Il y a encore du taf derrière ! si l'on ne maitrise pas le langage on peut vite devenir larguer ! En tout cas votre vidéo est sympa, j'ai appris des choses intéressantes.
@codeconcept
@codeconcept 15 күн бұрын
Merci :) Pour le moment, toutes des IA qui aident à la programmation font au maximum 70% du travail. Savoir programmer reste un atout majeur.
@bones.24
@bones.24 27 күн бұрын
Comment est-ce gratuit alors qu’on doit mettre une API key?
@Zard418
@Zard418 27 күн бұрын
réel réel !!!
@codeconcept
@codeconcept 27 күн бұрын
En n'utilisant pas d'API key et en utilisant plutôt en local un LLM gratuit. Par exemple avec ollama, il suffit de faire un : ollama run [nom-de-modèle]. Mais il faut avoir une bonne machine et être un peu patient car les réponses vont être plus lentes que sur les serveurs de Stackblitz.
@bones.24
@bones.24 27 күн бұрын
@ en effet, mais qu’en est-il des autres LLM, Claude sonnet est plus optimisé pour crée des applications.
@codeconcept
@codeconcept 27 күн бұрын
@bones.24 L'auteur du fork de Bolt est emballé par Qwen-2.5-Coder-32b pour le dev. Mais de nouveau, va falloir avoir la machine qui suit
@bones.24
@bones.24 27 күн бұрын
@ bien reçu
@PhunkyBob
@PhunkyBob 27 күн бұрын
Je ne comprends pas pourquoi il faut une "grosse machine" pour faire tourner l'application, alors que ce n'est qu'une interface qui fait appel à des IA distantes...
@codeconcept
@codeconcept 27 күн бұрын
@PhunkyBob Il faut une machine très puissante pour faire tourner les LLMs en local. Sinon, en utilisant une API distante, un ordinateur de base suffit amplement. Mais à ce moment là, il faudra payer un abonnement.
@Madum_tv
@Madum_tv 26 күн бұрын
@@codeconcept je ne vois pas comment l'utiliser sans abonnement
@ai.aspirations
@ai.aspirations 23 күн бұрын
Thanks for sharing ❤
@nellytube-63rl
@nellytube-63rl 21 күн бұрын
Vraiment merci, exellent
@echelon3410
@echelon3410 24 күн бұрын
Quand on voit les commentaires, je me dis qu'il y a encore du boulot avant que les non-devs arrivent à se servir d'une AI pour nous remplacer 😅
@codeconcept
@codeconcept 22 күн бұрын
On n'est pas en compétition : les non-devs ont souvent une meilleure connaissance métier et veulent créer des applications qui répondent à des problèmes qu'ils connaissent. Nous, on créé souvent des appli sans avoir testé que quelqu'un a le problème que notre app résout 😄 On sera remplacé ... par des devs qui savent se servir des I.A. Ou plutôt, le nombre de postes de devs diminuera car 2 devs pourront faire le boulot de 4 dans quelques années.
@pauldoussiere4545
@pauldoussiere4545 10 күн бұрын
Si j' utilise une clef openAI ou Claude, est ce que je vais avoir besoin d un super ordinateur ou c est seulement lorsque on fait faire tourner des ia comme llama en local ?
@blackridder22
@blackridder22 8 күн бұрын
cela consomme de CPU/GPU que quand tu l'ia commence a generer des codes, des telechargement, des ressources externes pour venir completer la tache que tu as demander, asure toi d'avoir un minimum 8 jusqu'a 60 GO RAM pour bien tourner, et au moin 25 Go d'espace pour le telechargement, (oui, un beau pactole haha)
@rank8467
@rank8467 28 күн бұрын
Est-ce que les Keys API sont gratuites?
@tesdy1450
@tesdy1450 28 күн бұрын
Non mais tu peux toujours tenter d'installer un LLM en local mais attention, il faut une bonne bécane (surtout la partie GPU)
@theeagle450
@theeagle450 26 күн бұрын
Désolé je pige rien a ce que tu fais, je ne suis pas technicien mais j'aimerais beaucoup avoir bolt gratos.
@codeconcept
@codeconcept 25 күн бұрын
Pas de problème, maintenant que j'ai passé plus de temps à jouer avec, je vais pouvoir faire une vidéo plus détaillée ;)
@MgbTrading
@MgbTrading 25 күн бұрын
​@@codeconcept bonsoir Merci encore pour tn partage 🙏 Tu as donc prévu de nous faire une vidéo tuto sur l'installation complète de bolt que Cole à développer ? Ps : je suis sur Windows, j'ai "essayé" mais rien ne se lance j'ai tellement de message d'erreur 😂🎉
@nicolasbertholet5541
@nicolasbertholet5541 29 күн бұрын
l ' électricité c est pas gratuit non plus sauf si tu bosses chez edf ... les 500 euros ce sera la facture electrique
@ascensionspirituelle7287
@ascensionspirituelle7287 29 күн бұрын
Tu l'ouvres pour d'autres et tu partages les frais
@codeconcept
@codeconcept 29 күн бұрын
@nicolasbertholet5541 C'est pas faux. Si une bonne âme veut faire un retour sur ses factures EDF avant et après l'achat d'un ou deux GPUs, ça m'intéresse. Bon, ça doit se trouver sur internet. Ou se calculer à partir des specs de la bête.
@codeconcept
@codeconcept 29 күн бұрын
@@ascensionspirituelle7287 Des mini-datacenters par immeuble. Comme ce que font les Américains avec leurs machines à laver au sous-sol 😄
@cedrictrachsel8579
@cedrictrachsel8579 28 күн бұрын
@@codeconcept je suis en Suisse chez bkw à 24.54 centime le kwh. Je me suis monté un dell en serveur avec 32Go de ram et deux cartes nvidia quadro p5000 (2x16Go de ram vidéoe) le tout pour 800€ (c'est de l'occasion). Pour des raisons de prix j'allume ma machine quand j'en ai besoin, hier pour 8h d'utilisation elle m'a consommée 610 Wh (0.610kwh) soit environ 15c. J'ai fait le constat suivant, pour mon utilisation ça me coûte moins chère d'utiliser gpt4o-mini ou llama3.1-70b (chez together) que d'utiliser ma machine pour l'inférance qui rame avec llama 3.1-70b mais est très véloce avec llama 3.2-11b. donc si je devais utiliser bolt en local j'utiliserai soit avec openai ou together ou mistral (pour info on peux avoir des api gratuire chez Groq (avec un q par un k) et mistral
@bertrand3055
@bertrand3055 28 күн бұрын
Cogénération : chauffage hivernal inclus ❗❗❗
@nc1246
@nc1246 26 күн бұрын
S'il y a un tuto pour utiliser ça gratuitement je veux absolument
@codeconcept
@codeconcept 25 күн бұрын
Je suis en train d'utiliser Bolt gratuitement en local avec Mistral 7B. Donc je pourrai détailler les étapes que j'ai suivies 😎 Mais c'est clair qu'avec ma machine de 3 ans de moyenne gamme, la génération de code est trèèèès lente.
@Don-21-
@Don-21- 23 күн бұрын
Merci sans doutes très utile mais je suis un noob du dev et j’y comprend rien 😅 mais merci quand même 😉
@codeconcept
@codeconcept 22 күн бұрын
Je viens de sortir un tuto plus détaillé. Peut-être que ce sera plus clair 😉
@olivierf695
@olivierf695 28 күн бұрын
J'ai pas compris une seule phrase...
@werty999
@werty999 27 күн бұрын
pourtant , c est facile en interpolant le flood tu upscales la frame digital en passant par un swith level plus underground , CPU data validation oblige, et en suivant mon simple conseil tu deviendras un pro en application fullstack sauf si évidemment tu utilises des boites containers.en tout cas un fork masterclass c est sur !
@codeconcept
@codeconcept 27 күн бұрын
@olivierf695 Quand même quelques unes 😀 Certains passages parlaient probablement davantage aux développeurs. Pour le reste, à force de voir passer les mêmes specs, ça va finir par devenir évident. Je me souviens de l'époque où le grand public ne savait pas ce qu'était une adresse IP ou un routeur, et maintenant, c'est aussi quelconque qu'une plaque d'immatriculation ou un rond point
@fredl9815
@fredl9815 28 күн бұрын
Avec toutes les avancées dans les langages de haut niveau je trouve que le plus simple et le moins cher c’est d’apprendre à coder
@codeconcept
@codeconcept 27 күн бұрын
@fredl9815 C'est mon avis également :les non-dev vont devoir apprendre à programmer un minimum (ne serait-ce que pour économiser en tokens), les devs à utiliser les I.A. pour gagner en vitesse sur les taches répétitives.
@francoisorega9692
@francoisorega9692 24 күн бұрын
bien dit chef !
@alainherve8030
@alainherve8030 24 күн бұрын
Il faut optimiser le prompt pour limiter le nbre de requêtes également, c'est complètement identique aux autres outils utilisant l'IA
@xXxOoFLORIANoOxXx
@xXxOoFLORIANoOxXx 25 күн бұрын
Gratuitement ? Mais si on met une clé API, les tokens sont PAYANT, nan ?
@codeconcept
@codeconcept 25 күн бұрын
C'est pour ça qu'il ne faut pas en mettre et installer des modèles gratuits en local 😄 Ce que j'ai fait ce soir. Mais il faut avoir un ordinateur puissant et gavé de mémoire ainsi qu'un bon GPU. Sinon, quand on n'a pas de machine adéquate (la mienne ne coche aucune des 3 cases précitées), il est possible, grâce à ce fork de Bolt, d'utiliser de nombreux autres modèles payants mais moins coûteux. Ou encore, en fonction de la tâche à developper au sein d'une même application, switcher d'un modèle à l'autre en fonction de la fonctionnalité que l'on est en train de développer.
@matthieubouillot469
@matthieubouillot469 24 күн бұрын
@@codeconceptcomment ça des modèles gratuits en local ? Parce que avec le fork on peut que mettre des Clé Api payante ?
@willspaint5733
@willspaint5733 27 күн бұрын
cela ne fonctionne pas
@ToinouGang
@ToinouGang 27 күн бұрын
Essaie avec Pinokio
@Talaria.School
@Talaria.School 29 күн бұрын
@moneyfr
@moneyfr 29 күн бұрын
j'ai demandé fais moi un site de restaurant moderne => une maquette bof bof
@codeconcept
@codeconcept 27 күн бұрын
Pour les maquettes, V0 de Vercel est probablement plus adapté. Ca permet de partir sur quelque chose d'assez joli puis de continuer soi-même à la mano
@benevolarX
@benevolarX 28 күн бұрын
Je suis l'actualité des prix des composants de pc (les prix indiqués sont à titre indicatif, beaucoup de vendeur rajoutent leur marge) rtx 3060 8go : trop cher, même prix que le modèle 12go rtx 3060 12go : 250-300e (prix gonflé car très répandue chez les joueurs) rtx 3060 ti 8go : 300-350e rtx 3070 8go : 350-400e rtx 3080 10go = trop cher car production des rtx 3000 arrêté depuis + 1 an (début de sorti des rtx 4000) rtx 4060 8go : 250-300e rtx 4060ti 8go : 330-380e rtx 4060ti 16go : 400-500e (trop cher, la 4070 est toujours préférable à celle ci malgré les 16go de vram) rtx 4070 12go : 500-550e (légèrement trop cher par rapport à la 4070 super et modèle dont la production a cessé depuis la sorti de la 4070 super) rtx 4070 super 12go : 550-600e (meilleur rapport perf / prix de la génération 4000) rtx 4070 ti 12go : 700-800e trop cher (quasi même puissance de calcul que la 4070 super et modèle dont la production a cessé depuis la sorti de la 4070 ti super) rtx 4070 ti super 16go : 850-1000e (trop cher) rtx 4080 16go : modèle dont la production a cessé depuis la sorti de la 4080 super rtx 4080 super 16go : 950-1200e (trop cher) J'ai volontairement omis la rtx 3050 (carte de bureautique) et les modèles à +1000e (rtx 3080 ti, rtx 3090, rtx 4090) Pour ce qui est de l'utilisation de 2 gpu identique (via crossfire ou sli) c'est une feature qui n'est pas présente sur tout les modèles et qui a été abandonné avec le temps car trop niche en terme d'utilisation et moins rentable pour l'utilisateur que de revendre son gpu pour un modèle plus récent.
@Unnaymed
@Unnaymed 28 күн бұрын
Conclusion, nvidia c'est trop cher 😆 vivement de la concurrence et des cartes avec 16-24go de ram pas cher.
@codeconcept
@codeconcept 27 күн бұрын
@benevolarX Merci 😀 L'auteur du fork avait deux cartes de 24 Go si je me souviens bien.
@codeconcept
@codeconcept 27 күн бұрын
@@Unnaymed Le problème, c'est que nvidia serait plutôt parti pour tuer ses concurrents. Ca couplé à l'augmentation du prix de l'électricité, faire tourner en local des I.A. (sans attendre des plombes) va être réservé à minima aux PME.
@nc1246
@nc1246 27 күн бұрын
@@Unnaymed j'en ai acheté sur aliexpress, ça passe lol
@flomix75
@flomix75 19 күн бұрын
Sincèrement, si le ou les tous premiers prompts sont ultra bien pensés, ça coute pas non plus une fortune, avec 50 balles tu peux en faire des choses. Le seul soucis de Bolt je trouve c’est qu’une fois qu’il y a un bug dans le code généré il tente de résoudre les problèmes mais n’y arrive jamais et c’est là qu’il vaut mieux comprendre qu’il est inutile de cramer tous ses tokens, il vaut mieux recommencer un nouveau projet avec de meilleurs prompts. En gros, comme pour tous projets, il faut que ça soit carré avant même de commencer à coder sinon ça sera forcément une galère
@codeconcept
@codeconcept 15 күн бұрын
Merci pour ce retour d'expérience. J'ai l'impression que lovable et windsurf bouffent moins de token quand on veut corriger un bug. Je ne sais plus sur lequel des deux on peut choisir de générer uniquement un morceau de code précis en cliquant sur le nom d'une fonction. Bolt va probablement s'améliorer à ce niveau là également.
@flomix75
@flomix75 15 күн бұрын
@@codeconcept ah oui c’est pas mal de reprendre un bout de code, et oui Bolt va forcément évoluer, dans 6 mois ça sera béton 😜
@bourgogneguillaume
@bourgogneguillaume 28 күн бұрын
super vidéo, merci
@codeconcept
@codeconcept 27 күн бұрын
Merci 😀
J'ai automatisé Bolt et ChatGPT pour créer des Apps - FOU !
19:58
小丑教训坏蛋 #小丑 #天使 #shorts
00:49
好人小丑
Рет қаралды 54 МЛН
Мясо вегана? 🧐 @Whatthefshow
01:01
История одного вокалиста
Рет қаралды 7 МЛН
Mom Hack for Cooking Solo with a Little One! 🍳👶
00:15
5-Minute Crafts HOUSE
Рет қаралды 23 МЛН
false: you cannot code software from scratch without being a developer (with AI)
13:30
Melvynx • Apprendre à coder
Рет қаралды 13 М.
J'ai laissé une IA négocier avec des inconnus sur Leboncoin
13:50
Shubham SHARMA
Рет қаралды 76 М.
Partie 2 - Installer Bolt en local gratuitement
8:31
DEV ADVENTURE
Рет қаралды 3,2 М.
J'ai créé 2 SaaS et 1 site en 2h grâce à cette IA! (je ne suis pas dev)
14:53
This $500/mo AI Agent can code anything, just watch
23:25
David Ondrej
Рет қаралды 18 М.
I Forked Bolt.new and Made it WAY Better
19:28
Cole Medin
Рет қаралды 94 М.
Créez une Application Mobile & un Backoffice avec l'I.A. (WindSurf)
13:20
My CTO Friend FR 🇫🇷
Рет қаралды 3,4 М.
Formation Bolt.new 2025 : Tuto COMPLET pour bien l'utiliser !
46:37
小丑教训坏蛋 #小丑 #天使 #shorts
00:49
好人小丑
Рет қаралды 54 МЛН