Incroyable mec, je suis dev, je n'ai aucun intérêt, mais c'est tout de meme incroyable ce que tu nous présente.
@Baraka036928 күн бұрын
T’as tout intérêt justement Si tu loupes ça tu seras finies dans qlq années
@vahdettint29 күн бұрын
Excellente découverte à suivre 😮🎉
@codeconcept29 күн бұрын
Ca a l'air prometteur, surtout si le gars continue sur sa lancée. Il risque même ... de se faire recruter par Stackblitz 😋
@happyjulien627527 күн бұрын
Franchement énorme merci à toi frère tu mérites bien plus d'abonnés
@codeconcept27 күн бұрын
Merci Julien 😀 ! Le nombre d'abonnés dépend de l'exposition que m'accorde l'algo de KZbin. Et je n'ai pas la main dessus. On vit déjà dans un monde où les algo décident de beaucoup de choses 😅
@sebastienrodriguez249128 күн бұрын
Tout de même compliqué à suivre pour des néophites. En tout cas très intéressant de savoir que cela est possible , ne serait ce que pour se tenir au courant 👍
@codeconcept27 күн бұрын
Merci 😀 C'est un peu comme pour les réseaux il a 20 ans : au départ, je me souviens que je devais expliquer aux entreprises clientes chez qui j'allais comment configurer leur carte réseau, partager une imprimante, relancer un service etc et maintenant c'est passé dans l'univers quotidien. Dans 10 ans, le marketing aidant, tout le monde saura quel modèle d'IA est utilise au boulot ou à la maison, combien de paramètres a leur I.A, la taille du contexte etc. D'autant qu'on aura le temps de se renseigner si les I.A bossent à notre place 😅
@tontondofus27 күн бұрын
Hello ! Merci pour ta vidéo. Avec un MacBook m3 pro , on peut le faire tourner en local ? Je parle de la version de stackblitz pas celle où on peut changer les IA
@codeconcept27 күн бұрын
Hello et merci à toi 😀 Vu les retours d'expérience que j'ai lu dans les commentaires, il faut vraiment avec une grosse config. Et plusieurs GPUs. Même dans ces conditions, ça sera moins fluide que la version en ligne. Si en revanche en 2025 de nouveaux petits modèles dédiés au code sortent, là, ça pourra devenir intéressant en local. Qeu ce soit le projet originel ou le fork.
@Bannideserps27 күн бұрын
Pour lînstall bolt en local en un click Pinokio computer pour les non initiée
@Ludovic.Teouri.98827 күн бұрын
Mais du coup en local ça fonctionne toujours aussi bien qu'en ligne ou pas ? Ça fait 2 semaines je l'utilise et c'est vrai qu'il a du mal avec quelques trucs dès qu'on lui demande trop...
@Bannideserps27 күн бұрын
@@Ludovic.Teouri.988 J'utilise en local avec une 3080 j'ai pas moyen de comparer je n'utilise pas en online . Oui il commence avoir du mal après 2K de ligne de code j'ai remarquer du moins chez moi , Si tu n'as aucune notion de Dev pour un gros projet il faut absolument apprendre a segmenter pour le réaliser , fonction ,class , ect .. et donc bien le notifier dans tes prompts .
@willspaint573327 күн бұрын
je viens de mettre Pinokio bolt ce mais mais il reponds pas au demande api il maisune erreur There was an error processing your request: No details were returned
@codeconcept27 күн бұрын
@Ludovic.Teouri.988 Bolt est encore en beta. Mais on peut compter sur Stackblitz pour l'améliorer rapidement.
@scoremi26 күн бұрын
Salut sais tu pourquoi la preview avec pinokio pose problème une fois le code généré ?
@Leyriel16 күн бұрын
Une fois l'installation fait en local, il faut quand même renseigner les clé API des différents LLM,que l'ont souhaite utiliser. Ce qui sous entend que l'ont va quand même devoir payer des tokens. A moins qu'il soit possible de lancer un LLM localement ?
@codeconcept15 күн бұрын
Pas il si on utilise un LLM installé localement, par exemple via ollama.
@henochcamer376529 күн бұрын
Merci pour l’info. Et effectivement j’ai l’impression que les non dev sont un peu les vaches à lait de ce type de nouveaux outils all-in-one…mais ça reste intéressant de voir ce qu’ils arrivent à produire avec.
@codeconcept29 күн бұрын
J'aime beaucoup tout ce qu'ils font chez Stackblitz. Vue la qualité de tout ce qu'ils ont sorti avant, il y a de très grandes chances qu'ils corrigent cette tendance de Bolt à tourner en rond sans fin dans certaines circonstances. C'est ce qu'il y a de plus frustrant pour le moment. Et qui coûte cher aux non-dev qui dependent du bouton 'fix problem' qui leur consomme leurs tokens. Mais en 2025, ce Bolt peut devenir bien meilleur et beaucoup moins coûteux. Et donc effectivement, intéressant pour les non devs qui pourront concrétiser sans se ruiner.
@SamsBackgroundКүн бұрын
Bonjour, merci pour tes vidéos. Il y a une nouvelle MAJ de Pinocchio (3.0) et là Bolt est facilement installable surtout que maintenant il est rattaché à Hugginface, pourriez vous svp faire une vidéo pour expliquer comment tirer le meilleur de Bolt avec les meilleurs models gratuits? Merci encore
@michaelkihl18 күн бұрын
Salut ! J'ai vu ta vidéo dans mon fil KZbin et j'ai tout de suite reconnu mon formateur d'Udemy. Ta vidéo est sympathique, mais j'ai encore des difficultés en développement. Je me forme seul et il n'y a personne autour de moi avec qui échanger. J'ai mis un like sur la vidéo. À très bientôt !
@codeconcept15 күн бұрын
Salut et merci :) Ca fait des années que je n'ai plus poste de formations sur Udemy. Je mets mes nouvelles formation sur mon teachable perso. Les difficultés en développement, tout le monde en a. Y compris les très seniors. Ils ont même de plus grandes difficultés car ils développent des choses plus compliquées. Mais ce qui compte, c'est de persévérer jusqu'à trouver la solution. Et parfois, le problème relevait de l'étourderie la plus basique 😅 En tous cas, il faut persévérer et garder à l'esprit que le progrès, c'est deux pas en avant, un pas en arrière. Et garder courage quand on a l'impression de ne pas progresser.
@ThePrimeTech28 күн бұрын
Elle est géniale ta chaîne
@codeconcept27 күн бұрын
Merci😀 Une petite chaine faite dans sa chambre. A l'ancienne 😄
@patrickdarbeau130125 күн бұрын
Suite... Les clefs, c'est dans .env ou .env.local qu'il faut les mettre ? Merci pour la réponse
@codeconcept25 күн бұрын
Il faut renommer .env.example en .env.local, puis renseigner les clés dans .env.local
@kratus6025 күн бұрын
Merci pour le partage, c'est très intéressant, j'ai vite arrêté bolt c'est beaucoup trop limitant quand on est déjà dev. Par contre bosser sur un projet existant avec alors là !!!! 🔥
@codeconcept25 күн бұрын
Merci :) Etant dev également, je continue à développer à la main. Mais il faut continuer à se familiariser avec ces outils car ils vont être de plus en plus présents. Perso, je suis en train d'apprendre à faire de l'embedding + persistance des vecteurs obtenus dans une DB vectorielle, histoire de pouvoir faire des recherches sur du contenu privé. Je pense que c'est le genre de développements "hybrides" qu'on nous demandera en 2025 / 2026.
@kratus6025 күн бұрын
@@codeconcept Je vois qu'on a des centres d'intérêt communs, je fais exactement le même travail actuellement. Je pense vraiment que l'embedding + vector db + LLM (RAG) va beaucoup apporter dans notre domaine. Que ça soit sur du contenu privé textuel.... ou du code :D
@TokenInvest25 күн бұрын
Comment faites-vous pour bosser sur un projet existant avec Bolt ?
@TheRemiRODRIGUES29 күн бұрын
C'est intéressant de savoir que le code de Bolt est open source. Ce qui peut-être intéressant, c'est de voir les idées qu'ils ont mis en oeuvre pour générer de façon autonomes des applications. Je ne sais pas où en est AutoGPT, si ce n'est qu'ils 169k starts. Mais c'est aussi open source, et ça peut-être intéressant aussi de savoir qu'elles sont les paradigmes utilisés pour réaliser des agents autonomes, comprendre qu'elles sont actuellement leurs limites et tenté de réfléchir à des solutions.
@codeconcept29 күн бұрын
C'est le genre de questions qu'il faudrait que je pose, à l'occasion d'un épisode 2 de podcast, à l'expert en I.A. qui était venu ici. Ca me fait penser que je n'ai même pas mis d'étoile au fork de bolt. C'est fait 😀
@LaurentBrugiere28 күн бұрын
Merci pour cette vidéo. Bolt est une catastrophe. Effectivement, après l'effet Wow, et payé un abonnement, la frustration et la colère arrive très vite tant bolt est incapable de gérer correctement un projet plus long qu'une seule page. Il est incapable de corriger des erreurs. Il est feneant, on modifiant le code avec des mentions du type // ici le code précédent // Il fige trop souvent, ce qui oblige a cliquer sur retry... Et de bouffer du token. Pour moi, la question est vite répondue : Juste bon à créer une interface front simple. J'annule mon abonnement.
@evian897628 күн бұрын
Toujours la même chose avec ces outils malheureusement aider-chat c'est pas trop mal en comparaison, on me dit qu'il faut peut être travailler plus les prompts mais à partir de là autant coder manuellement quoi
@werty99927 күн бұрын
je confirme, pour un usage basique , il n impressionne que les non initiés , des que l'on gratte sur un projet un chouia complexe , il ne fait que tourner en boucle sur ses propres erreurs et paradoxalement se met à bouffer voracement vos tokens sur des erreurs que lui même à génère.
@cestcholeschoishow625023 күн бұрын
Oui, j'ai remarqué ça, j'ai compris que la technologie était encore trop immature pour sortir des sous. Si je dois payer c'est pour un truc qui marche au moins en grande partie.
@TimBnb28 күн бұрын
Super contenu ! Est-ce que le preview s’affiche à côté du codage comme pour l’interface Bolt classique ? Je veux dire par-là d’avoir un aperçu d’exécution du code en temps réel
@6tokyt46828 күн бұрын
Oui si vous utilisez un modèle avec au minimum 16/32K de contexte, en dessous, n'y pensez pas, Bolt (à l'heure actuelle) est hyper gourmand, pour gérer le mode "Canvas", il l'est encore plus.
@patrickdarbeau130125 күн бұрын
Bonjour, j'ai installé l'appli tout comme il est dit, seulement le serveur se lance, mais j'ai le message d'erreur suivant : Unexpected Server Error TypeError: Cannot read properties of null (reading 'useEffect') Que signifie ce message et que faire? Merci de votre réponse
@codeconcept25 күн бұрын
Bonjour, il est possible que vous ayez sauté une étape. Est-ce que vous avez bien installé les packages ? Ca se fait avec la commande "npm install" ?
@mrskeud28 күн бұрын
Bonjour et merci pour cette vidéo très instructive. J'ai une question de noob. Est-ce que les processeurs ARM (M4 Max en l'occurence) sont capables de faire tourner ces IA en locale ? Merci +++
@bourgogneguillaume28 күн бұрын
essaye lm studio
@6tokyt46828 күн бұрын
Un M4 fera tourner des modèles comme Qwen 2.5 32P 4Q (classe basse/moyenne) mais avec une vitesse de 11-12 tokens seulement par seconde, ce qui est extrêmement lent. Pour vous donner un ordre de grandeur, ce même modèle sur mon architecture atteint environ 38 tokens par seconde avec Ollama et environ 28 tokens par seconde avec LMStudio, et je peux vous assurer que c'est déjà très long ! Si l'IA vous intéresse et que vous n'êtes pas dans l'urgence, je vous conseille d'attendre les prochaines générations pour investir dans une unité performante.
@codeconcept27 күн бұрын
@mrskeud 😀Des machines plus puissantes, de plus petits modèles très spécialisés : c'est probablement ce qui va faciliter l'utilisation de modèles en local. Et la patience effet.
@stephanepaz225927 күн бұрын
Merci pour la vidéo! Tu n'as pas parlé de l'hébergement sur serveur plutot qu'en local , c'est pas une bonne méthode ?
@codeconcept27 күн бұрын
Merci 😀 C'est vrai que ce serait possible d'héberger sur un serveur. Je viens de faire une petite recherche google, il y a déjà plein d'hébergeurs qui proposent des "cloud GPU". Est-ce qu'il est possible de s'en servir pour héberger un projet et pas uniquement d'entrainer des modèles ? J'ai pas encore creusé dans cette direction. Mais c'est tentant :)
@Bannideserps26 күн бұрын
@@codeconcept Tu peux héberger ton llm sur hugging face ou replicate , pour tester cela fonctionne très bien .
@RémiMorichon28 күн бұрын
Est-il possible de faire un tutoriel détaillé pour tous les non développeur ? Car je nai pas tout compris 😢
@tesdy145028 күн бұрын
@@RémiMorichon en vrai, le tuto est déjà dans la vidéo, "gît clone" et tu as le projet sur ton Pc. Mais cela t'offrira que la vue avec le prompt, si tu as un abonnement a un des LLM, tu as juste a copie ta clé API dans le .env et utiliser le prompt. Je t'invite à lire le commentaire de 6tokyt468, ça va sûrement te couper l'envie ;) Ce n'est pas encore au point pour résumer
@codeconcept27 күн бұрын
@RémiMorichon Je ferai un tuto plus détaillé qui montrer comment installer les outils (git, l'IDE ...) 😉 @tesdy1450 Il faut en effet une grosse config avec quelques GPUs ... ou bien un père noël (très très) généreux 😄
@alexandrequemy28 күн бұрын
En plus de cout du GPU, il faut prendre en compte le cout de l'electricite. Pour les gros modeles, ca peut vraiment mettre a mal le portefeuille sur le long terme (typiquement, on peut taper facilement le 1kWh).
@codeconcept27 күн бұрын
@alexandrequemy Je viens de lire plus bas un retour d'utilisation de 500 à 1000 € annuel. Ca devient un budget de loisir. Et avec l'augmentation de l'électricité, d'un loisir motorisé 😄
@Madum_tv27 күн бұрын
mon pc windows ne reconnait pas la commande npm run dev avec vsc
@codeconcept27 күн бұрын
J'ai npm car j'avais déjà installé Node dans le passé. Et comme npm est installé en même temps que node : nodejs.org/en/download/package-manager J'ai aussi installé pnpm, qui est plus rapide pour l'installation de packages.
@Madum_tv26 күн бұрын
J'ai installé bolt comme indiqué, j'ai mis la clef anthropic mais il dit que je n'ai pas de token....
@codeconcept25 күн бұрын
Je l'avais pas précisé dans la vidéo, mais il faut renommer .env.example en .env.local, puis renseigner les clés dans .env.local
@mathieuc39623 күн бұрын
Après avoir mis la clé API d openai j ai un message d erreur quand je fais une recherche : « there was an error processing your request : no details were return » Y a t il une mauvaise manip que j ai faite ?
@luboyys146523 күн бұрын
Peut-être que ma réponse est stupide, mais pour pouvoir utiliser l'API OpenAi, tu dois avoir ajouté des crédits sur ton compte pour que OpenAi convertisse ces crédits en tokens qui te permettront d'avoir des réponses de l'IA, je ne sais pas si tu la fais
@mathieuc39623 күн бұрын
@ merci ! Je crois que c’est très certainement ça qui bloque je n’avais pas compris qu il fallait des token en plus de la version payante pour pouvoir utiliser la clé ! Merci pour la réponse !
@codeconcept22 күн бұрын
@mathieuc396 C'est uniquement avec les LLMs installés en local que l'on peut se passer de clés.
@mathieuc39622 күн бұрын
@ mais j ai une version payante d openai et j’ai généré la clé, je n ai pas essayé de m’en passer. En revanche j ai tjs ce message d erreur et je n’arrive pas à trouver comment contourner le problème ?
@lariost568327 күн бұрын
Je vois qu'il y a dans la liste des LLMs proposés Ollama, comme Ollama fait tourner des modèles sur le CPU, est-il possible de faire tourner ce fork avec un LLM qui tournerait uniquement sur un CPU, est-ce que Bolt est trop exigeant pour que ça soit utilisable de la sorte ? A priori on peut penser que c'est plutôt consommateur si le type qui l'a forké dit qu'il le fait tourner avec 2 GPU, mais je serai curieux de voir ce que ça donne quand même.
@codeconcept27 күн бұрын
@lariost5683 Il y aura de plus en plus de retours d'expériences en commentaires. Mais probablement uniquement de testeurs qui ont de grosses config (ce qui n'est hélas pas mon cas). Avec ollama en effet, il est possible de faire tourner un LLM gratuit en local. Mais c'est le LLM qui va exiger beaucoup de resources (et un peu d'espace disque quand même). Bolt en lui-même n'est qu'une application web assez standard : ça n'est pas lui qui mettra l'ordinateur à genoux 😀
@Bannideserps26 күн бұрын
@@codeconcept On parle beaucoup de GPU , mais il ne faut surtout pas négliger la Vram très important , celons les config avec 8 Go Vram tu est vite limité au niveau du tampon de calcul du GPU , il faut les 2 : GPU et un max de Vram .
@alexandreegea552324 күн бұрын
Et je voulais savoir si en l'hébergeant nous-mêmes, on aura la même qualité de site ? Comme ce n'est pas la même qualité de calcul
@codeconcept22 күн бұрын
Un serveur est souvent bien plus puissant et mieux doté en RAM et GPU, donc c'est effectivement bien mieux. On peut alors faire tourner de plus gros modèles, bien plus vite. La solution que j'ai pas eu le temps de tester, ce serait d'utiliser des cloud GPU pour installer Bolt bolt.new-any-llm dessus.
@henrierhard44394 күн бұрын
Merci pour ta vidéo ! J’ai un problème avec ma landing page genre en mode quand je fais le premier chargement de la page à chaque fois les éléments les animations clignotent et j’arrive pas à régler le problème. Et pourtant je lui dis de régler le problème mais il arrive pas. Quelqu’un peut m’aider ?🙏😂
@randomvideo446129 күн бұрын
Bolt en local avec des gpu, voilà vous avez recruté un stagiaire
@codeconcept29 күн бұрын
Un sacré assistant en puissance, quand il sera en version finale. J'espère que les stagiaires continueront à trouver des stages. Car rien de tel pour se frotter au bord... aux applications grandeur nature 😄
@pepeleherisson28 күн бұрын
@@codeconcept il faut recruté un stagiaire pour gérer Bolt c'est ça la vraie combo gagnante!
@happyjulien627527 күн бұрын
Ne sous-estimé pas les stagiaires
@MaroGamerZ22 күн бұрын
Slt peux tu faire une nouvelle vidéo comment utiliser la clé api de perplexity en local sur bolt aparament elle est compatible avec open ai je pige rien du tout comment l'installer
@codeconcept22 күн бұрын
Je viens de sortir une vidéo sur des problèmes fréquents 😉 Pour ce qui est de l'ajout de clé, j'avais oublié de dire qu'il fallait renommer .env.example et .env.local.
@SturakaMusic24 күн бұрын
Poissble de faire une vidéo plus détaillé pour les gens qui comprennent pas puis pas d'api donc marche pas aussi si c'est possible de faire une nouvelle vidéos qui explique mieux merci :))
@codeconcept22 күн бұрын
Je viens de mettre en ligne une vidéo plus détaillée 😉
@ibrahimwess851129 күн бұрын
Super merci pour l'astuce
@codeconcept27 күн бұрын
😀
@dservais128 күн бұрын
très intéressant merci !
@malekmalek453628 күн бұрын
merci pour la video ❤❤❤❤❤❤❤❤
@codeconcept27 күн бұрын
😀
@duboismarie961624 күн бұрын
Bonjour, suis je la seule à avoir : remix vite:dev 'remix' n’est pas reconnu en tant que commande interne ou externe, un programme exécutable ou un fichier de commandes. Merci
@zarnergun23 күн бұрын
Il suffit que tu ajoutes la dependance : npm install remix
@khloebayonnecastador474622 күн бұрын
@@zarnergunje fais ça ca s'installe mais quand je vérifie rien
@zarnergun22 күн бұрын
@@khloebayonnecastador4746 ah pardon sur mon manjaro j'ai eu la même absence de dépendance j'ai ajouté et ça fonctionne.
@codeconcept22 күн бұрын
@duboismarie9616 Bonjour, j'ai eu le problème lors d'une installation. Parfois il faut supprimer le répertoire node_modules et le fichier pnpm-lock et refaire une installation via : pnpm i @zarnergun Oui souvent, il suffit d'installer le seul package manquant.
@pepitoche934322 күн бұрын
Salut ! Je découvre ta chaine vraiment super ! Question un peu bête, mais si on le run en local, et que les modèles (open AI, Mistral etc) font un nouveau modèle, j'imagine que il faut re actualiser notre "git clone" ? en gros en telechargeant maintenant le modèle on est restreint avec les LLM que Cole à implémenté ? +1 abo
@codeconcept22 күн бұрын
Salut :) Il suffirait dans ce cas d'ajouter une ligne dans le fichier app/utils/constants.ts pour lister des modèles qui n'apparaissent pas. Et pour mettre à jour le menu déroulant, c'est dans app/components/chat/BaseChat.tsx Mais au début, tant que le projet de Cole est en train d'évoluer rapidement, il serait sans doute préférable de récupérer régulièrement la version la plus récente du projet.
@abelpouillet511426 күн бұрын
Du coup on attend une vidéo sur la gestion d'un egpu par cuda pour setup une démo de ce projet en local ?
@codeconcept25 күн бұрын
Je suis en train de me servir de ce fork en local avec un autre modèle que celui par défaut. Donc je vais faire une 2ème vidéo plus détaillée. Mais il faut une machine haut de gamme récente (hélas pas en ma possession) ou bien essayer de déployer sur un cloud GPU. Je vais essayer cette option :)
@abdellahb139826 күн бұрын
C'est parfait , ca pourrait marcher avec un autre modèle d'IA que celui par défaut et du coup ca mettrait en concurrence les sociétés d'IA. Si j'ai pas de grosse carte graphique tu crois que je pourrai trouver une API moins chère que celle de Bolt ?
@codeconcept25 күн бұрын
Au moment où j'écris, je suis en train de me servir de Bolt en local et sans clé, avec Mistral 7B. Mais avec ma machine un peu ancienne, c'est très, très lent. Donc j'ai bien peur que te retrouves dans le même cas que moi. La solution alternative serait d'utiliser un GPU en ligne (cloud GPU), en déployant le fork sur un serveur. Je vais tester ça pour voir 😉
@onisake85922 күн бұрын
@@codeconcept Bonsoir, merci beaucoup pour votre vidéo j'ai testé avec Mistral 7B également en l'installant grâce à LM Studio mais malheureusement quand je tente un prompt j'ai l'erreur suivante "only user and assistant roles are supported" avez vous rencontré ce problème ? J'ai testé avec un llama-2 1B ça fonctionne mais il ne gère pas les webcontainers j'ai l'impression
@tomsbeer5140020 күн бұрын
Bonjour, cela fait quelques jours que j'utilise TOLK et le produit ne m'a pas conquis. Beaucoup d'erreur dans la programmation. Sur Python, TOLK propose des bibliothèque non à jour. Lorsque l'on déploie notre programme. Il y a encore du taf derrière ! si l'on ne maitrise pas le langage on peut vite devenir larguer ! En tout cas votre vidéo est sympa, j'ai appris des choses intéressantes.
@codeconcept15 күн бұрын
Merci :) Pour le moment, toutes des IA qui aident à la programmation font au maximum 70% du travail. Savoir programmer reste un atout majeur.
@bones.2427 күн бұрын
Comment est-ce gratuit alors qu’on doit mettre une API key?
@Zard41827 күн бұрын
réel réel !!!
@codeconcept27 күн бұрын
En n'utilisant pas d'API key et en utilisant plutôt en local un LLM gratuit. Par exemple avec ollama, il suffit de faire un : ollama run [nom-de-modèle]. Mais il faut avoir une bonne machine et être un peu patient car les réponses vont être plus lentes que sur les serveurs de Stackblitz.
@bones.2427 күн бұрын
@ en effet, mais qu’en est-il des autres LLM, Claude sonnet est plus optimisé pour crée des applications.
@codeconcept27 күн бұрын
@bones.24 L'auteur du fork de Bolt est emballé par Qwen-2.5-Coder-32b pour le dev. Mais de nouveau, va falloir avoir la machine qui suit
@bones.2427 күн бұрын
@ bien reçu
@PhunkyBob27 күн бұрын
Je ne comprends pas pourquoi il faut une "grosse machine" pour faire tourner l'application, alors que ce n'est qu'une interface qui fait appel à des IA distantes...
@codeconcept27 күн бұрын
@PhunkyBob Il faut une machine très puissante pour faire tourner les LLMs en local. Sinon, en utilisant une API distante, un ordinateur de base suffit amplement. Mais à ce moment là, il faudra payer un abonnement.
@Madum_tv26 күн бұрын
@@codeconcept je ne vois pas comment l'utiliser sans abonnement
@ai.aspirations23 күн бұрын
Thanks for sharing ❤
@nellytube-63rl21 күн бұрын
Vraiment merci, exellent
@echelon341024 күн бұрын
Quand on voit les commentaires, je me dis qu'il y a encore du boulot avant que les non-devs arrivent à se servir d'une AI pour nous remplacer 😅
@codeconcept22 күн бұрын
On n'est pas en compétition : les non-devs ont souvent une meilleure connaissance métier et veulent créer des applications qui répondent à des problèmes qu'ils connaissent. Nous, on créé souvent des appli sans avoir testé que quelqu'un a le problème que notre app résout 😄 On sera remplacé ... par des devs qui savent se servir des I.A. Ou plutôt, le nombre de postes de devs diminuera car 2 devs pourront faire le boulot de 4 dans quelques années.
@pauldoussiere454510 күн бұрын
Si j' utilise une clef openAI ou Claude, est ce que je vais avoir besoin d un super ordinateur ou c est seulement lorsque on fait faire tourner des ia comme llama en local ?
@blackridder228 күн бұрын
cela consomme de CPU/GPU que quand tu l'ia commence a generer des codes, des telechargement, des ressources externes pour venir completer la tache que tu as demander, asure toi d'avoir un minimum 8 jusqu'a 60 GO RAM pour bien tourner, et au moin 25 Go d'espace pour le telechargement, (oui, un beau pactole haha)
@rank846728 күн бұрын
Est-ce que les Keys API sont gratuites?
@tesdy145028 күн бұрын
Non mais tu peux toujours tenter d'installer un LLM en local mais attention, il faut une bonne bécane (surtout la partie GPU)
@theeagle45026 күн бұрын
Désolé je pige rien a ce que tu fais, je ne suis pas technicien mais j'aimerais beaucoup avoir bolt gratos.
@codeconcept25 күн бұрын
Pas de problème, maintenant que j'ai passé plus de temps à jouer avec, je vais pouvoir faire une vidéo plus détaillée ;)
@MgbTrading25 күн бұрын
@@codeconcept bonsoir Merci encore pour tn partage 🙏 Tu as donc prévu de nous faire une vidéo tuto sur l'installation complète de bolt que Cole à développer ? Ps : je suis sur Windows, j'ai "essayé" mais rien ne se lance j'ai tellement de message d'erreur 😂🎉
@nicolasbertholet554129 күн бұрын
l ' électricité c est pas gratuit non plus sauf si tu bosses chez edf ... les 500 euros ce sera la facture electrique
@ascensionspirituelle728729 күн бұрын
Tu l'ouvres pour d'autres et tu partages les frais
@codeconcept29 күн бұрын
@nicolasbertholet5541 C'est pas faux. Si une bonne âme veut faire un retour sur ses factures EDF avant et après l'achat d'un ou deux GPUs, ça m'intéresse. Bon, ça doit se trouver sur internet. Ou se calculer à partir des specs de la bête.
@codeconcept29 күн бұрын
@@ascensionspirituelle7287 Des mini-datacenters par immeuble. Comme ce que font les Américains avec leurs machines à laver au sous-sol 😄
@cedrictrachsel857928 күн бұрын
@@codeconcept je suis en Suisse chez bkw à 24.54 centime le kwh. Je me suis monté un dell en serveur avec 32Go de ram et deux cartes nvidia quadro p5000 (2x16Go de ram vidéoe) le tout pour 800€ (c'est de l'occasion). Pour des raisons de prix j'allume ma machine quand j'en ai besoin, hier pour 8h d'utilisation elle m'a consommée 610 Wh (0.610kwh) soit environ 15c. J'ai fait le constat suivant, pour mon utilisation ça me coûte moins chère d'utiliser gpt4o-mini ou llama3.1-70b (chez together) que d'utiliser ma machine pour l'inférance qui rame avec llama 3.1-70b mais est très véloce avec llama 3.2-11b. donc si je devais utiliser bolt en local j'utiliserai soit avec openai ou together ou mistral (pour info on peux avoir des api gratuire chez Groq (avec un q par un k) et mistral
@bertrand305528 күн бұрын
Cogénération : chauffage hivernal inclus ❗❗❗
@nc124626 күн бұрын
S'il y a un tuto pour utiliser ça gratuitement je veux absolument
@codeconcept25 күн бұрын
Je suis en train d'utiliser Bolt gratuitement en local avec Mistral 7B. Donc je pourrai détailler les étapes que j'ai suivies 😎 Mais c'est clair qu'avec ma machine de 3 ans de moyenne gamme, la génération de code est trèèèès lente.
@Don-21-23 күн бұрын
Merci sans doutes très utile mais je suis un noob du dev et j’y comprend rien 😅 mais merci quand même 😉
@codeconcept22 күн бұрын
Je viens de sortir un tuto plus détaillé. Peut-être que ce sera plus clair 😉
@olivierf69528 күн бұрын
J'ai pas compris une seule phrase...
@werty99927 күн бұрын
pourtant , c est facile en interpolant le flood tu upscales la frame digital en passant par un swith level plus underground , CPU data validation oblige, et en suivant mon simple conseil tu deviendras un pro en application fullstack sauf si évidemment tu utilises des boites containers.en tout cas un fork masterclass c est sur !
@codeconcept27 күн бұрын
@olivierf695 Quand même quelques unes 😀 Certains passages parlaient probablement davantage aux développeurs. Pour le reste, à force de voir passer les mêmes specs, ça va finir par devenir évident. Je me souviens de l'époque où le grand public ne savait pas ce qu'était une adresse IP ou un routeur, et maintenant, c'est aussi quelconque qu'une plaque d'immatriculation ou un rond point
@fredl981528 күн бұрын
Avec toutes les avancées dans les langages de haut niveau je trouve que le plus simple et le moins cher c’est d’apprendre à coder
@codeconcept27 күн бұрын
@fredl9815 C'est mon avis également :les non-dev vont devoir apprendre à programmer un minimum (ne serait-ce que pour économiser en tokens), les devs à utiliser les I.A. pour gagner en vitesse sur les taches répétitives.
@francoisorega969224 күн бұрын
bien dit chef !
@alainherve803024 күн бұрын
Il faut optimiser le prompt pour limiter le nbre de requêtes également, c'est complètement identique aux autres outils utilisant l'IA
@xXxOoFLORIANoOxXx25 күн бұрын
Gratuitement ? Mais si on met une clé API, les tokens sont PAYANT, nan ?
@codeconcept25 күн бұрын
C'est pour ça qu'il ne faut pas en mettre et installer des modèles gratuits en local 😄 Ce que j'ai fait ce soir. Mais il faut avoir un ordinateur puissant et gavé de mémoire ainsi qu'un bon GPU. Sinon, quand on n'a pas de machine adéquate (la mienne ne coche aucune des 3 cases précitées), il est possible, grâce à ce fork de Bolt, d'utiliser de nombreux autres modèles payants mais moins coûteux. Ou encore, en fonction de la tâche à developper au sein d'une même application, switcher d'un modèle à l'autre en fonction de la fonctionnalité que l'on est en train de développer.
@matthieubouillot46924 күн бұрын
@@codeconceptcomment ça des modèles gratuits en local ? Parce que avec le fork on peut que mettre des Clé Api payante ?
@willspaint573327 күн бұрын
cela ne fonctionne pas
@ToinouGang27 күн бұрын
Essaie avec Pinokio
@Talaria.School29 күн бұрын
❤
@moneyfr29 күн бұрын
j'ai demandé fais moi un site de restaurant moderne => une maquette bof bof
@codeconcept27 күн бұрын
Pour les maquettes, V0 de Vercel est probablement plus adapté. Ca permet de partir sur quelque chose d'assez joli puis de continuer soi-même à la mano
@benevolarX28 күн бұрын
Je suis l'actualité des prix des composants de pc (les prix indiqués sont à titre indicatif, beaucoup de vendeur rajoutent leur marge) rtx 3060 8go : trop cher, même prix que le modèle 12go rtx 3060 12go : 250-300e (prix gonflé car très répandue chez les joueurs) rtx 3060 ti 8go : 300-350e rtx 3070 8go : 350-400e rtx 3080 10go = trop cher car production des rtx 3000 arrêté depuis + 1 an (début de sorti des rtx 4000) rtx 4060 8go : 250-300e rtx 4060ti 8go : 330-380e rtx 4060ti 16go : 400-500e (trop cher, la 4070 est toujours préférable à celle ci malgré les 16go de vram) rtx 4070 12go : 500-550e (légèrement trop cher par rapport à la 4070 super et modèle dont la production a cessé depuis la sorti de la 4070 super) rtx 4070 super 12go : 550-600e (meilleur rapport perf / prix de la génération 4000) rtx 4070 ti 12go : 700-800e trop cher (quasi même puissance de calcul que la 4070 super et modèle dont la production a cessé depuis la sorti de la 4070 ti super) rtx 4070 ti super 16go : 850-1000e (trop cher) rtx 4080 16go : modèle dont la production a cessé depuis la sorti de la 4080 super rtx 4080 super 16go : 950-1200e (trop cher) J'ai volontairement omis la rtx 3050 (carte de bureautique) et les modèles à +1000e (rtx 3080 ti, rtx 3090, rtx 4090) Pour ce qui est de l'utilisation de 2 gpu identique (via crossfire ou sli) c'est une feature qui n'est pas présente sur tout les modèles et qui a été abandonné avec le temps car trop niche en terme d'utilisation et moins rentable pour l'utilisateur que de revendre son gpu pour un modèle plus récent.
@Unnaymed28 күн бұрын
Conclusion, nvidia c'est trop cher 😆 vivement de la concurrence et des cartes avec 16-24go de ram pas cher.
@codeconcept27 күн бұрын
@benevolarX Merci 😀 L'auteur du fork avait deux cartes de 24 Go si je me souviens bien.
@codeconcept27 күн бұрын
@@Unnaymed Le problème, c'est que nvidia serait plutôt parti pour tuer ses concurrents. Ca couplé à l'augmentation du prix de l'électricité, faire tourner en local des I.A. (sans attendre des plombes) va être réservé à minima aux PME.
@nc124627 күн бұрын
@@Unnaymed j'en ai acheté sur aliexpress, ça passe lol
@flomix7519 күн бұрын
Sincèrement, si le ou les tous premiers prompts sont ultra bien pensés, ça coute pas non plus une fortune, avec 50 balles tu peux en faire des choses. Le seul soucis de Bolt je trouve c’est qu’une fois qu’il y a un bug dans le code généré il tente de résoudre les problèmes mais n’y arrive jamais et c’est là qu’il vaut mieux comprendre qu’il est inutile de cramer tous ses tokens, il vaut mieux recommencer un nouveau projet avec de meilleurs prompts. En gros, comme pour tous projets, il faut que ça soit carré avant même de commencer à coder sinon ça sera forcément une galère
@codeconcept15 күн бұрын
Merci pour ce retour d'expérience. J'ai l'impression que lovable et windsurf bouffent moins de token quand on veut corriger un bug. Je ne sais plus sur lequel des deux on peut choisir de générer uniquement un morceau de code précis en cliquant sur le nom d'une fonction. Bolt va probablement s'améliorer à ce niveau là également.
@flomix7515 күн бұрын
@@codeconcept ah oui c’est pas mal de reprendre un bout de code, et oui Bolt va forcément évoluer, dans 6 mois ça sera béton 😜